Update README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,90 @@
|
|
1 |
---
|
2 |
license: apache-2.0
|
|
|
|
|
|
|
3 |
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
license: apache-2.0
|
3 |
+
language:
|
4 |
+
- zh
|
5 |
+
pipeline_tag: text-generation
|
6 |
---
|
7 |
+
|
8 |
+
# Qwen1.5-14B-Chat-GPTQ-Int4-Zhihu
|
9 |
+
|
10 |
+
用知乎热门问题的高赞回答 finetune (using Q-LoRA) 的 [Qwen1.5-14B-Chat-GPTQ-Int4](https://huggingface.co/Qwen/Qwen1.5-14B-Chat-GPTQ-Int4) 模型。
|
11 |
+
|
12 |
+
用来 finetune 的问题包含以下话题:心理、教育、社会、生活、职场、文学、故事、科技、互联网。
|
13 |
+
|
14 |
+
这是我的一次无聊尝试。模型生成的回答与知乎高赞回答形似,虽然经常胡言乱语,但是拿来玩玩还是蛮有趣的。分享给大家图一乐。
|
15 |
+
|
16 |
+
或许 finetune 一个更大的模型效果会更好?(如果你真的去尝试了请务必告诉我结果,14B 已经是我的显卡的极限了,72B 没条件去 finetune。)
|
17 |
+
|
18 |
+
另外,使用较高的 `temperature` 和一定的 `repetition_penalty` 生成的回答效果相对较好。
|
19 |
+
|
20 |
+
## 使用方法
|
21 |
+
|
22 |
+
`system message`:“你是一个知乎高赞答主,根据以下的问题描述,写一个高赞回答。”
|
23 |
+
|
24 |
+
`user message` 的格式如下
|
25 |
+
|
26 |
+
```text
|
27 |
+
问题题目:…………
|
28 |
+
|
29 |
+
问题描述:…………(可以为空)
|
30 |
+
|
31 |
+
问题分类:['话题1', '话题2', '话题3', …………]
|
32 |
+
```
|
33 |
+
|
34 |
+
### 代码示例
|
35 |
+
|
36 |
+
```python
|
37 |
+
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
|
38 |
+
from peft import AutoPeftModelForCausalLM
|
39 |
+
|
40 |
+
|
41 |
+
tokenizer = AutoTokenizer.from_pretrained('Qwen/Qwen1.5-14B-Chat-GPTQ-Int4', trust_remote_code=True)
|
42 |
+
model = AutoPeftModelForCausalLM.from_pretrained(
|
43 |
+
'ericzzz/Qwen1.5-14B-Chat-GPTQ-Int4-Zhihu',
|
44 |
+
device_map="auto",
|
45 |
+
trust_remote_code=True
|
46 |
+
).eval()
|
47 |
+
streamer = TextStreamer(tokenizer) # use streamer to stream response
|
48 |
+
|
49 |
+
prompt = '''问题题目:为什么小时候缺爱的孩子,长大后很难幸福?
|
50 |
+
|
51 |
+
问题描述:
|
52 |
+
|
53 |
+
问题分类:['心理学', '心理', '幸福', '心理健康', '缺爱']'''
|
54 |
+
messages = [
|
55 |
+
{"role": "system", "content": "你是一个知乎高赞答主,根据以下的问题描述,写一个高赞回答。"},
|
56 |
+
{"role": "user", "content": prompt}
|
57 |
+
]
|
58 |
+
text = tokenizer.apply_chat_template(
|
59 |
+
messages,
|
60 |
+
tokenize=False,
|
61 |
+
add_generation_prompt=True
|
62 |
+
)
|
63 |
+
|
64 |
+
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
|
65 |
+
generated_ids = model.generate(
|
66 |
+
model_inputs.input_ids,
|
67 |
+
max_new_tokens=1024,
|
68 |
+
temperature=0.6,
|
69 |
+
repetition_penalty=1.15,
|
70 |
+
streamer=streamer,
|
71 |
+
do_sample=True,
|
72 |
+
)
|
73 |
+
```
|
74 |
+
|
75 |
+
下面是我得到的回答的节选,乍一看还挺有道理的。但是除了这一段其他大部分内容基本都是在胡扯。
|
76 |
+
|
77 |
+
```text
|
78 |
+
其实很多父母都不懂得怎么教育孩子,他们只知道一味地责备、谩骂和惩罚,却从不考虑孩子的感受。
|
79 |
+
而这些负面情绪会在孩子的内心深处留下阴影,并且随着年龄的增长逐渐发酵,最后变成一种难以控制的情绪爆发出来。
|
80 |
+
就像我和我男朋友一样,明明都是受过高等教育的人,但是面对感情中的矛盾冲突时,我们都会选择以最原始的方式去解决——动粗。
|
81 |
+
这是我们的原生家庭带给我们的影响,也是我们童年缺失的爱在作祟。
|
82 |
+
```
|
83 |
+
|
84 |
+
## 📬 联系方式
|
85 |
+
|
86 |
+
如果有任何问题、想法,或者想合作 build something interesting together,欢迎邮件 [email protected]。
|
87 |
+
|
88 |
+
## Disclaimer
|
89 |
+
|
90 |
+
使用本模型生成的任何信息均需用户自行判断其适用性,并承担全部风险。作者对本模型生成的回答不做任何担保、不负任何责任。如本模型内容涉及侵权,请及时与作者联系以便删除相关内容。
|