# りんなGPT-2-medium ファインチューニングやってみた # パッケージのインストール !git clone https://github.com/huggingface/transformers -b v4.23.1 !pip install transformers==4.23.1 !pip install evaluate==0.3.0 !pip install sentencepiece==0.1.97 %%time # ファインチューニングの実行 !python ./transformers/examples/pytorch/language-modeling/run_clm.py \ --model_name_or_path=rinna/japanese-gpt2-medium \ --train_file=natsumesouseki.txt \ --validation_file=natsumesouseki.txt \ --do_train \ --do_eval \ --num_train_epochs=3 \ --save_steps=5000 \ --save_total_limit=3 \ --per_device_train_batch_size=1 \ --per_device_eval_batch_size=1 \ --output_dir=output/ from transformers import T5Tokenizer, AutoModelForCausalLM # トークナイザーとモデルの準備 tokenizer = T5Tokenizer.from_pretrained("rinna/japanese-gpt2-medium") model = AutoModelForCausalLM.from_pretrained("rinna/japanese-gpt2-medium") # 推論の実行 def Chat(prompt, ): input = tokenizer.encode(prompt, return_tensors="pt") output = model.generate(input, do_sample=True, max_length=300, num_return_sequences=5) return print(tokenizer.batch_decode(output))