MrFrigate commited on
Commit
e5cc29f
·
verified ·
1 Parent(s): f2cedfc

Create app.py

Browse files
Files changed (1) hide show
  1. app.py +29 -0
app.py ADDED
@@ -0,0 +1,29 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ from transformers import AutoModelForCausalLM, AutoTokenizer
2
+ import gradio as gr
3
+
4
+ # Загрузка модели и токенизатора
5
+ model_name = "Qwen/Qwen2.5-VL-72B-Instruct"
6
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
7
+ model = AutoModelForCausalLM.from_pretrained(
8
+ model_name,
9
+ load_in_8bit=True, # Квантизация для экономии памяти
10
+ device_map="auto" # Автоматическое распределение между CPU и GPU
11
+ )
12
+
13
+ # Функция для генерации текста
14
+ def generate_response(input_text):
15
+ inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
16
+ outputs = model.generate(**inputs, max_length=100)
17
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
18
+ return response
19
+
20
+ # Создание интерфейса Gradio
21
+ with gr.Blocks() as demo:
22
+ gr.Markdown("# Qwen2.5-VL-72B-Instruct Demo")
23
+ input_text = gr.Textbox(label="Введите ваш запрос", lines=3)
24
+ output_text = gr.Textbox(label="Ответ модели", lines=5)
25
+ submit_button = gr.Button("Отправить")
26
+ submit_button.click(generate_response, inputs=input_text, outputs=output_text)
27
+
28
+ # Запуск интерфейса
29
+ demo.launch()