File size: 4,213 Bytes
3719840 ff437c8 3719840 9107d79 3719840 9107d79 3719840 9107d79 b3b2c1b 7c5ccce 514e5b5 7c5ccce 514e5b5 7c5ccce 514e5b5 7c5ccce 514e5b5 7c5ccce b3b2c1b 9107d79 1dae666 9107d79 3719840 9107d79 eb1af45 9107d79 559ae33 9107d79 559ae33 eb1af45 559ae33 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 |
---
language:
- fr
license: apache-2.0
tags:
- text-generation-inference
- transformers
- unsloth
- gemma
- summarizer
- lora
base_model: unsloth/gemma-2b-it-bnb-4bit
---
# Uploaded as lora model
- **Developed by:** Labagaite
- **License:** apache-2.0
- **Finetuned from model :** unsloth/gemma-2b-it-bnb-4bit
# Training Logs
## Traning metrics

## Evaluation score
### Évaluation des rapports générés par les modèles d'IA :
#### Modèle de base unsloth/gemma-2b-it-bnb-4bit :
1. **Performance de la structuration du rapport : 5/10**
- Le rapport est structuré en chapitres distincts, mais la transition entre les chapitres est parfois abrupte et manque de fluidité.
2. **Qualité du langage : 4/10**
- Le langage utilisé est correct mais manque de sophistication et de variété. Certaines phrases sont maladroites et peu claires.
3. **Cohérence : 4/10**
- La cohérence du rapport est faible, avec des idées qui semblent parfois disjointes et des transitions abruptes entre les sections.
**Score global : 4.3/10**
#### Modèle fine-tuned /home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit :
1. **Performance de la structuration du rapport : 7/10**
- Le rapport est bien structuré en sections claires et distinctes, avec des transitions plus fluides entre les chapitres.
2. **Qualité du langage : 6/10**
- Le langage utilisé est plus sophistiqué et varié que dans le rapport du modèle de base, mais il reste quelques maladresses et répétitions.
3. **Cohérence : 6/10**
- Le rapport est plus cohérent que celui du modèle de base, avec des idées mieux connectées et des transitions plus naturelles.
**Score global : 6.3/10**
### Conclusion :
Le modèle fine-tuned a clairement montré une amélioration par rapport au modèle de base en termes de structuration du rapport, de qualité du langage et de cohérence. Cependant, il reste encore des aspects à améliorer pour atteindre une qualité optimale. Le modèle de base a besoin d'une amélioration significative dans tous les domaines pour être considéré comme efficace. En fin de compte, le modèle fine-tuned est préférable pour générer des rapports de meilleure qualité.
[Evaluation report and scoring](evaluation/run-unsloth/gemma-2b-it-bnb-4bit-7449/Model_evaluator-gemma-Summarizer-2b-it-bnb-4bit.md)
## Wandb logs
You can view the training logs [<img src="https://raw.githubusercontent.com/wandb/wandb/main/docs/README_images/logo-light.svg" width="200"/>](https://wandb.ai/william-derue/LLM-summarizer_trainer/runs/nlrru9au).
## Training details
### training data
- Dataset : [fr-summarizer-dataset](https://huggingface.co/datasets/Labagaite/fr-summarizer-dataset)
- Data-size : 7.65 MB
- train : 1.97k rows
- validation : 440 rows
- roles : user , assistant
- Format chatml "role": "role", "content": "content", "user": "user", "assistant": "assistant"
<br>
*French audio podcast transcription*
# Project details
[<img src="https://avatars.githubusercontent.com/u/116890814?v=4" width="100"/>](https://github.com/WillIsback/Report_Maker)
Fine-tuned on French audio podcast transcription data for summarization task. As a result, the model is able to summarize French audio podcast transcription data.
The model will be used for an AI application: [Report Maker](https://github.com/WillIsback/Report_Maker) wich is a powerful tool designed to automate the process of transcribing and summarizing meetings.
It leverages state-of-the-art machine learning models to provide detailed and accurate reports.
This gemma model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
This gemma was trained with [LLM summarizer trainer](images/Llm_Summarizer_trainer_icon-removebg.png)
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
**LLM summarizer trainer**
[<img src="https://github.com/WillIsback/LLM_Summarizer_Trainer/blob/main/images/Llm_Summarizer_trainer_icon-removebg.png?raw=true" width="150"/>](https://github.com/WillIsback/LLM_Summarizer_Trainer)
|