ericzzz commited on
Commit
6d19344
·
verified ·
1 Parent(s): 45370d3

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +87 -0
README.md CHANGED
@@ -1,3 +1,90 @@
1
  ---
2
  license: apache-2.0
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
  license: apache-2.0
3
+ language:
4
+ - zh
5
+ pipeline_tag: text-generation
6
  ---
7
+
8
+ # Qwen1.5-14B-Chat-GPTQ-Int4-Zhihu
9
+
10
+ 用知乎热门问题的高赞回答 finetune (using Q-LoRA) 的 [Qwen1.5-14B-Chat-GPTQ-Int4](https://huggingface.co/Qwen/Qwen1.5-14B-Chat-GPTQ-Int4) 模型。
11
+
12
+ 用来 finetune 的问题包含以下话题:心理、教育、社会、生活、职场、文学、故事、科技、互联网。
13
+
14
+ 这是我的一次无聊尝试。模型生成的回答与知乎高赞回答形似,虽然经常胡言乱语,但是拿来玩玩还是蛮有趣的。分享给大家图一乐。
15
+
16
+ 或许 finetune 一个更大的模型效果会更好?(如果你真的去尝试了请务必告诉我结果,14B 已经是我的显卡的极限了,72B 没条件去 finetune。)
17
+
18
+ 另外,使用较高的 `temperature` 和一定的 `repetition_penalty` 生成的回答效果相对较好。
19
+
20
+ ## 使用方法
21
+
22
+ `system message`:“你是一个知乎高赞答主,根据以下的问题描述,写一个高赞回答。”
23
+
24
+ `user message` 的格式如下
25
+
26
+ ```text
27
+ 问题题目:…………
28
+
29
+ 问题描述:…………(可以为空)
30
+
31
+ 问题分类:['话题1', '话题2', '话题3', …………]
32
+ ```
33
+
34
+ ### 代码示例
35
+
36
+ ```python
37
+ from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
38
+ from peft import AutoPeftModelForCausalLM
39
+
40
+
41
+ tokenizer = AutoTokenizer.from_pretrained('Qwen/Qwen1.5-14B-Chat-GPTQ-Int4', trust_remote_code=True)
42
+ model = AutoPeftModelForCausalLM.from_pretrained(
43
+ 'ericzzz/Qwen1.5-14B-Chat-GPTQ-Int4-Zhihu',
44
+ device_map="auto",
45
+ trust_remote_code=True
46
+ ).eval()
47
+ streamer = TextStreamer(tokenizer) # use streamer to stream response
48
+
49
+ prompt = '''问题题目:为什么小时候缺爱的孩子,长大后很难幸福?
50
+
51
+ 问题描述:
52
+
53
+ 问题分类:['心理学', '心理', '幸福', '心理健康', '缺爱']'''
54
+ messages = [
55
+ {"role": "system", "content": "你是一个知乎高赞答主,根据以下的问题描述,写一个高赞回答。"},
56
+ {"role": "user", "content": prompt}
57
+ ]
58
+ text = tokenizer.apply_chat_template(
59
+ messages,
60
+ tokenize=False,
61
+ add_generation_prompt=True
62
+ )
63
+
64
+ model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
65
+ generated_ids = model.generate(
66
+ model_inputs.input_ids,
67
+ max_new_tokens=1024,
68
+ temperature=0.6,
69
+ repetition_penalty=1.15,
70
+ streamer=streamer,
71
+ do_sample=True,
72
+ )
73
+ ```
74
+
75
+ 下面是我得到的回答的节选,乍一看还挺有道理的。但是除了这一段其他大部分内容基本都是在胡扯。
76
+
77
+ ```text
78
+ 其实很多父母都不懂得怎么教育孩子,他们只知道一味地责备、谩骂和惩罚,却从不考虑孩子的感受。
79
+ 而这些负面情绪会在孩子的内心深处留下阴影,并且随着年龄的增长逐渐发酵,最后变成一种难以控制的情绪爆发出来。
80
+ 就像我和我男朋友一样,明明都是受过高等教育的人,但是面对感情中的矛盾冲突时,我们都会选择以最原始的方式去解决——动粗。
81
+ 这是我们的原生家庭带给我们的影响,也是我们童年缺失的爱在作祟。
82
+ ```
83
+
84
+ ## 📬 联系方式
85
+
86
+ 如果有任何问题、想法,或者想合作 build something interesting together,欢迎邮件 [email protected]
87
+
88
+ ## Disclaimer
89
+
90
+ 使用本模型生成的任何信息均需用户自行判断其适用性,并承担全部风险。作者对本模型生成的回答不做任何担保、不负任何责任。如本模型内容涉及侵权,请及时与作者联系以便删除相关内容。