学習データ
以下のデータセットを使用。
- llm-jp/magpie-sft-v1.0 (apache-2.0)
- DeL-TaiseiOzaki/Tengentoppa-sft-qwen2.5-32b-reasoning-100k (apache-2.0)
- weblab-GENIAC/Open-Platypus-Japanese-masked (MIT)
- MITライセンスのデータのみ抽出して使用。
gemma-2利用にあたり、ライセンス上制約の懸念のあるデータセットは利用していない。
google/gemma-2-27bにLoraアダプタ(Taka2024/gemma-2-27b-it-2_lora)をマージ(16bit)して保存したもの。
- Downloads last month
- 6
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
the model is not deployed on the HF Inference API.
Model tree for Taka2024/gemma-2-27b-it-2_lora_merged
Base model
google/gemma-2-27b