datasets: | |
- HuggingFaceH4/ultrachat_200k | |
base_model: | |
- google/gemma-2-2b-it | |
library_name: transformers | |
## google/gemma-2-2b-it - W8A8_int8 Compression | |
This is a compressed model using [llmcompressor](https://github.com/vllm-project/llm-compressor). | |
## Compression Configuration | |
- Base Model: google/gemma-2-2b-it | |
- Compression Scheme: W8A8_int8 | |
- Dataset: HuggingFaceH4/ultrachat_200k | |
- Dataset Split: train_sft | |
- Number of Samples: 512 | |
- Preprocessor: chat | |
- Maximum Sequence Length: 8192 | |
## Sample Output | |
#### Prompt: | |
``` | |
<bos><start_of_turn>user | |
Who is Alan Turing?<end_of_turn> | |
``` | |
#### Output: | |
``` | |
<bos><bos><start_of_turn>user | |
Who is Alan Turing?<end_of_turn> | |
CWE byggCWE lname RottCWECWECWECWE byggjecturesencieManbalarencieManbalarenýCWEený Rottiseiteenýiseiteynyenýiseiteynyenýynyenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýený byggenýCWEenýCWEenýenýynyenýenýenýenýenýenýenýenýenýynyenýynyynyenýManbalarManbalarynyenýManbalarynyenýManbalarenýManbalarenýenýynyenýCWEenýenýenýenýenýynyenýenýenýenýenýenýynyenýenýenýenýenýenýenýenýenýenýenýynyený BurrManbalarManbalar BurrManbalarenýenýenýenýenýenýenýenýenýenýený | |
``` | |
## Evaluation | |
<TODO> | |