HestenettetLM
En dansk LLM trænet på hele hestenettet over 3 epoker.
Modellen er baseret på Mistral 7b, og har et kontekstvindue på 8k.
from transformers import AutoTokenizer, TextStreamer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("mhenrichsen/hestenettetLM")
tokenizer = AutoTokenizer.from_pretrained("mhenrichsen/hestenettetLM")
streamer = TextStreamer(tokenizer, skip_special_tokens=True)
tokens = tokenizer(
"Den bedste hest er en ",
return_tensors='pt'
)['input_ids']
# Generate output
generation_output = model.generate(
tokens,
streamer=streamer,
max_length = 8194,
)
Eksempel: "Den bedste hest er en " bliver til: "Den bedste hest er en veltrænet hest."
- Downloads last month
- 1,518
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
the model is not deployed on the HF Inference API.