Update README.md
Browse files
README.md
CHANGED
@@ -12,6 +12,9 @@ Llama-3-8bの高度な論理的推論能力を損なうことなく、日本語
|
|
12 |
**外部翻訳システムを利用したトレーニングと開発**
|
13 |
適応戦略として、高性能でライセンスがApache2.0のMixtralを利用したcosmopediaという合成データセットを利用しました。
|
14 |
|
|
|
|
|
|
|
15 |
cosmopediaには、高品質なMixtral8x7Bのアウトプットのみで構成されており、推論能力の中核を凝縮した余計なノイズを含まないことが特徴です。
|
16 |
|
17 |
しかしcosmopediaは英語で構成されており、Mixtral自身も日本語表現を苦手とすることから、まず外部の翻訳システムを通じて日本語に翻訳しています。
|
|
|
12 |
**外部翻訳システムを利用したトレーニングと開発**
|
13 |
適応戦略として、高性能でライセンスがApache2.0のMixtralを利用したcosmopediaという合成データセットを利用しました。
|
14 |
|
15 |
+
[aixsatoshi/cosmopedia-japanese-100k](https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-100k)
|
16 |
+
[aixsatoshi/cosmopedia-japanese-20k](https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-20k)
|
17 |
+
|
18 |
cosmopediaには、高品質なMixtral8x7Bのアウトプットのみで構成されており、推論能力の中核を凝縮した余計なノイズを含まないことが特徴です。
|
19 |
|
20 |
しかしcosmopediaは英語で構成されており、Mixtral自身も日本語表現を苦手とすることから、まず外部の翻訳システムを通じて日本語に翻訳しています。
|