aixsatoshi
commited on
Update README.md
Browse files
README.md
CHANGED
@@ -2,7 +2,14 @@
|
|
2 |
license: llama3
|
3 |
---
|
4 |
**モデル概要**
|
5 |
-
Llama-3-8b-Cosmopedia-japaneseモデルは、優れた性能を認められているLlama-3-8b
|
|
|
|
|
6 |
|
7 |
**外部翻訳システムを利用したトレーニングと開発**
|
8 |
-
|
|
|
|
|
|
|
|
|
|
|
|
2 |
license: llama3
|
3 |
---
|
4 |
**モデル概要**
|
5 |
+
Llama-3-8b-Cosmopedia-japaneseモデルは、優れた性能を認められているLlama-3-8bモデルの日本語ドメインへの適応を目的として設計しました。
|
6 |
+
Llama-3-8bはその高い能力にも関わらず、英語と日本語の推論結果には顕著な差があり、英語で返答しやすいバイアスが強く、日本語でのパフォーマンスが劣っていました。
|
7 |
+
私たちの目標は、Llama-3-8bの高度な論理的推論能力を損なうことなく、日本語に適応させることでした。
|
8 |
|
9 |
**外部翻訳システムを利用したトレーニングと開発**
|
10 |
+
適応戦略として、高性能でライセンスがApache2.0のMixtralを利用したcosmopediaという合成データセットを利用しました。
|
11 |
+
cosmopediaには、高品質なMixtral8x7Bのアウトプットのみで構成されており、推論能力の中核を凝縮した余計なノイズを含まないことが特徴です。
|
12 |
+
しかしcosmopediaは英語で構成されており、Mixtral自身も日本語表現を苦手とすることから、まず外部の翻訳システムを通じて日本語に翻訳しています。
|
13 |
+
この日本語化cosmopediaデータを使用してLlama-3-8bモデルの追加トレーニングを行うことで日本語ドメインへの適応を図りました。
|
14 |
+
Llama-3-8bの論理的推論能力を日本語のコンテキストに円滑に移行させ、主にアウトプット対象言語のバイアスを日本語方向に移動させるトレーニングを行い
|
15 |
+
日本語でのパフォーマンス向上しました。
|