Upload README.md with huggingface_hub
Browse files
README.md
CHANGED
@@ -24,29 +24,24 @@ base_model: unsloth/gemma-2b-it-bnb-4bit
|
|
24 |

|
25 |
|
26 |
## Evaluation score
|
27 |
-
### Évaluation
|
28 |
|
29 |
-
|
30 |
-
|
31 |
-
|
|
|
32 |
|
33 |
-
|
|
|
|
|
|
|
34 |
|
35 |
-
|
|
|
|
|
36 |
|
37 |
-
###
|
38 |
-
|
39 |
-
1. Performance de la structuration du rapport : 8/10
|
40 |
-
2. Qualité du langage : 9/10
|
41 |
-
3. Cohérence : 8/10
|
42 |
-
|
43 |
-
Score global : 8.3/10
|
44 |
-
|
45 |
-
Ce rapport généré par le modèle /home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit est également bien structuré et présente de manière claire les différentes parties de l'histoire de succès de Fabrice Florent. Le langage utilisé est professionnel et fluide, avec une bonne cohérence entre les différentes sections du rapport.
|
46 |
-
|
47 |
-
### Conclusion :
|
48 |
-
|
49 |
-
Les deux modèles ont produit des rapports de qualité, mais le modèle /home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit obtient un score légèrement plus élevé en raison de sa meilleure cohérence et de la qualité supérieure de son langage. Les deux rapports sont informatifs et bien structurés, mais le modèle fine-tuned se démarque par sa fluidité et sa clarté.
|
50 |
[Evaluation report and scoring](evaluation/run-unsloth/gemma-2b-it-bnb-4bit-7449/Model_evaluator-gemma-Summarizer-2b-it-bnb-4bit.md)
|
51 |
|
52 |
## Wandb logs
|
|
|
24 |

|
25 |
|
26 |
## Evaluation score
|
27 |
+
### Évaluation des rapports générés par les modèles d'IA:
|
28 |
|
29 |
+
#### Modèle de base (unsloth/gemma-2b-it-bnb-4bit):
|
30 |
+
1. **Performance de la structuration du rapport:** 6/10
|
31 |
+
2. **Qualité du langage:** 7/10
|
32 |
+
3. **Cohérence:** 6/10
|
33 |
|
34 |
+
#### Modèle fine tuned (/home/will/LM_summarizer_trainer/model/gemma-Summarizer-2b-it-bnb-4bit):
|
35 |
+
1. **Performance de la structuration du rapport:** 8/10
|
36 |
+
2. **Qualité du langage:** 8/10
|
37 |
+
3. **Cohérence:** 8/10
|
38 |
|
39 |
+
### Score global:
|
40 |
+
- Modèle de base: 6.3/10
|
41 |
+
- Modèle fine tuned: 8/10
|
42 |
|
43 |
+
### Conclusion:
|
44 |
+
Le modèle fine tuned a clairement surpassé le modèle de base en termes de structuration du rapport, qualité du langage et cohérence. Le rapport généré par le modèle fine tuned est plus détaillé, plus fluide et mieux organisé. Il offre une meilleure compréhension du sujet et des points clés abordés. En revanche, le modèle de base présente quelques lacunes en termes de structuration et de cohérence. Il pourrait bénéficier d'une amélioration pour être plus précis et informatif. En conséquence, le modèle fine tuned obtient un score global plus élevé et est donc préférable pour la génération de rapports détaillés et de qualité.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
45 |
[Evaluation report and scoring](evaluation/run-unsloth/gemma-2b-it-bnb-4bit-7449/Model_evaluator-gemma-Summarizer-2b-it-bnb-4bit.md)
|
46 |
|
47 |
## Wandb logs
|