Update README.md
Browse files
README.md
CHANGED
@@ -7,13 +7,13 @@ pipeline_tag: text-generation
|
|
7 |
|
8 |
## Llama-3-8B-Omnibus-1-PL-v01
|
9 |
|
10 |
-
Repozytorium zawiera model Meta Llama-3-8B-Omnibus-1-PL-v01 w wersji polskoj臋zycznej. Model posta艂 na podstawie finetuningu modelu bazowego Llama-3-8B. Wykorzystano do tego dataset instrukcji Omnibus-1-PL (stworzony na potrzeby przeprowadzania eksperymen贸w finetuningu modeli w j臋zyku polskim). Szczeg贸艂y parametr贸w treningu w sekcji Trening. Celem tego eksperymentu by艂o sprawdzenie czy mo偶na nam贸wi膰 Llama-3-8B do p艂ynnego rozmawiania w j臋zyku polskim (oryginalny model instrukcyjny 8B ma z tym problem - woli zdecydowanie bardziej rozmawia膰 po angielsku).
|
11 |
|
12 |
### Spos贸b kodowania nazwy modelu
|
13 |
-
Nazwa modelu bazowego: Llama-3-8B
|
14 |
-
Nazwa datasetu: Omnibus-1
|
15 |
-
Wersja j臋zykowa: PL (polska)
|
16 |
-
Wersja modelu: v01
|
17 |
|
18 |
### Dataset
|
19 |
Omnibus-1 to zbi贸r polskich instrukcji (100% kontekstu Polskiego - fakty, osoby, miejsca osadzone w Polsce), kt贸ry zosta艂 w 100% syntetycznie wygenerowany. Zawiera on instrukcje z kategorii - matematyka, umiej臋tno艣膰 pisania, dialogi, tematy medyczne, zagadki logiczne, t艂umaczenia itd. Powsta艂 on w ramach moich prac zwi膮zanych z badaniem jako艣ci modeli w kontek艣cie j臋zyka polskiego. Pozwala on na finetuning modelu i sprawdzenie podatno艣ci modelu do m贸wienia w naszym rodzimym j臋zyku. Dataset zawiera obecnie 75.000 instrukcji. B臋dzie ca艂y czas udoskonalony i by膰 mo偶e w przysz艂o艣ci udost臋pniony (jak uznam, 偶e ju偶 jest wtstarczaj膮co pe艂en i obejmuje szerokie spektrum tematyki i umiej臋tno艣ci). Dataset jest w 100% generowany za pomoc膮 innych LLM (GPT3.5, GPT4, Mixtral itd.)
|
@@ -77,7 +77,7 @@ Szablon konwersacji to oryginalna wersja Llama3
|
|
77 |
|
78 |
### Wersje quantized
|
79 |
Wersje poddane quantyzacji s膮 dost臋pne w repozytorium:
|
80 |
-
|
81 |
|
82 |
|
83 |
### Licencja
|
|
|
7 |
|
8 |
## Llama-3-8B-Omnibus-1-PL-v01
|
9 |
|
10 |
+
Repozytorium zawiera model Meta Llama-3-8B-Omnibus-1-PL-v01 w wersji polskoj臋zycznej. Model posta艂 na podstawie finetuningu modelu bazowego Llama-3-8B. Jest to wersja eksperymentalna - powsta艂a w trakcie badania mo偶liwo艣ci Llama-3-8B w kontek艣cie j臋zyka polskiego. Wykorzystano do tego dataset instrukcji Omnibus-1-PL (stworzony na potrzeby przeprowadzania eksperymen贸w finetuningu modeli w j臋zyku polskim). Szczeg贸艂y parametr贸w treningu w sekcji Trening. Celem tego eksperymentu by艂o sprawdzenie czy mo偶na nam贸wi膰 Llama-3-8B do p艂ynnego rozmawiania w j臋zyku polskim (oryginalny model instrukcyjny 8B ma z tym problem - woli zdecydowanie bardziej rozmawia膰 po angielsku).
|
11 |
|
12 |
### Spos贸b kodowania nazwy modelu
|
13 |
+
* Nazwa modelu bazowego: Llama-3-8B
|
14 |
+
* Nazwa datasetu: Omnibus-1
|
15 |
+
* Wersja j臋zykowa: PL (polska)
|
16 |
+
* Wersja modelu: v01
|
17 |
|
18 |
### Dataset
|
19 |
Omnibus-1 to zbi贸r polskich instrukcji (100% kontekstu Polskiego - fakty, osoby, miejsca osadzone w Polsce), kt贸ry zosta艂 w 100% syntetycznie wygenerowany. Zawiera on instrukcje z kategorii - matematyka, umiej臋tno艣膰 pisania, dialogi, tematy medyczne, zagadki logiczne, t艂umaczenia itd. Powsta艂 on w ramach moich prac zwi膮zanych z badaniem jako艣ci modeli w kontek艣cie j臋zyka polskiego. Pozwala on na finetuning modelu i sprawdzenie podatno艣ci modelu do m贸wienia w naszym rodzimym j臋zyku. Dataset zawiera obecnie 75.000 instrukcji. B臋dzie ca艂y czas udoskonalony i by膰 mo偶e w przysz艂o艣ci udost臋pniony (jak uznam, 偶e ju偶 jest wtstarczaj膮co pe艂en i obejmuje szerokie spektrum tematyki i umiej臋tno艣ci). Dataset jest w 100% generowany za pomoc膮 innych LLM (GPT3.5, GPT4, Mixtral itd.)
|
|
|
77 |
|
78 |
### Wersje quantized
|
79 |
Wersje poddane quantyzacji s膮 dost臋pne w repozytorium:
|
80 |
+
* Llama-3-8B-Omnibus-1-PL-v01-GGUF - przetestowane w LM Studio (wybierz szablon - Llama3)
|
81 |
|
82 |
|
83 |
### Licencja
|