Update app.py
Browse files
app.py
CHANGED
@@ -11,6 +11,8 @@ model_name = "BSC-LT/ALIA-40b"
|
|
11 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
12 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
13 |
|
|
|
|
|
14 |
def generar_texto(entrada):
|
15 |
# Tokenizar la entrada
|
16 |
input_ids = tokenizer.encode(entrada, return_tensors="pt")
|
@@ -22,14 +24,23 @@ def generar_texto(entrada):
|
|
22 |
texto_generado = tokenizer.decode(output[0], skip_special_tokens=True)
|
23 |
return texto_generado
|
24 |
|
25 |
-
# Crear la interfaz de Gradio
|
26 |
interfaz = gr.Interface(
|
27 |
fn=generar_texto,
|
28 |
-
inputs=gr.
|
29 |
-
outputs=
|
30 |
title="Generador de Texto con ALIA-40b",
|
31 |
description="Este modelo genera texto utilizando ALIA-40b, un modelo LLM entrenado por BSC-LT."
|
32 |
)
|
33 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
34 |
if __name__ == "__main__":
|
35 |
interfaz.launch()
|
|
|
11 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
12 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
13 |
|
14 |
+
|
15 |
+
|
16 |
def generar_texto(entrada):
|
17 |
# Tokenizar la entrada
|
18 |
input_ids = tokenizer.encode(entrada, return_tensors="pt")
|
|
|
24 |
texto_generado = tokenizer.decode(output[0], skip_special_tokens=True)
|
25 |
return texto_generado
|
26 |
|
27 |
+
# Crear la interfaz de Gradio usando la sintaxis actualizada
|
28 |
interfaz = gr.Interface(
|
29 |
fn=generar_texto,
|
30 |
+
inputs=gr.Textbox(lines=2, placeholder="Escribe tu prompt aquí..."),
|
31 |
+
outputs=gr.Textbox(),
|
32 |
title="Generador de Texto con ALIA-40b",
|
33 |
description="Este modelo genera texto utilizando ALIA-40b, un modelo LLM entrenado por BSC-LT."
|
34 |
)
|
35 |
|
36 |
+
|
37 |
+
|
38 |
+
|
39 |
+
|
40 |
+
|
41 |
+
|
42 |
+
|
43 |
+
|
44 |
+
|
45 |
if __name__ == "__main__":
|
46 |
interfaz.launch()
|