--- language: - ko base_model: - beomi/KoAlpaca-Polyglot-5.8B pipeline_tag: question-answering --- ```@Update : 2024-11-27 ``` # KoAlpaca-Polyglot-5.8B - 이준범님 모델 기반으로 생성 - 데이터셋 : AiHub 채용 면접 인터뷰 데이터 : https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=data&dataSetSn=71592 ------ ``` 'loss': 2.1778, 'grad_norm': 5.742631912231445, 'learning_rate': 1.831713150322434e-07, 'epoch': 4.86 ``` ``` Trainargument epochs : 5 batch_size : 2 gradient_accumulation_steps : 32 weight_decay : 0.02 optim : paged_adamw_32bit learning_rate: 1e-5 ``` ---- ## 총론 1. GCP V100 1대 사용 - 아쉽게도 배치사이즈를 늘릴 수가 없는 상황(최소 A100은 되어야 RAM 보장됨, V100으로는 훈련중 터짐 ) 2. Validation 불가 - 램 용량 부하로 인해 validation을 불가한 상황 3. 인퍼런스 및 양자화 - 추후 재 설계 예정