repd79 commited on
Commit
624bf57
·
verified ·
1 Parent(s): 348e415

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +14 -3
app.py CHANGED
@@ -11,6 +11,8 @@ model_name = "BSC-LT/ALIA-40b"
11
  tokenizer = AutoTokenizer.from_pretrained(model_name)
12
  model = AutoModelForCausalLM.from_pretrained(model_name)
13
 
 
 
14
  def generar_texto(entrada):
15
  # Tokenizar la entrada
16
  input_ids = tokenizer.encode(entrada, return_tensors="pt")
@@ -22,14 +24,23 @@ def generar_texto(entrada):
22
  texto_generado = tokenizer.decode(output[0], skip_special_tokens=True)
23
  return texto_generado
24
 
25
- # Crear la interfaz de Gradio
26
  interfaz = gr.Interface(
27
  fn=generar_texto,
28
- inputs=gr.inputs.Textbox(lines=2, placeholder="Escribe tu prompt aquí..."),
29
- outputs="text",
30
  title="Generador de Texto con ALIA-40b",
31
  description="Este modelo genera texto utilizando ALIA-40b, un modelo LLM entrenado por BSC-LT."
32
  )
33
 
 
 
 
 
 
 
 
 
 
34
  if __name__ == "__main__":
35
  interfaz.launch()
 
11
  tokenizer = AutoTokenizer.from_pretrained(model_name)
12
  model = AutoModelForCausalLM.from_pretrained(model_name)
13
 
14
+
15
+
16
  def generar_texto(entrada):
17
  # Tokenizar la entrada
18
  input_ids = tokenizer.encode(entrada, return_tensors="pt")
 
24
  texto_generado = tokenizer.decode(output[0], skip_special_tokens=True)
25
  return texto_generado
26
 
27
+ # Crear la interfaz de Gradio usando la sintaxis actualizada
28
  interfaz = gr.Interface(
29
  fn=generar_texto,
30
+ inputs=gr.Textbox(lines=2, placeholder="Escribe tu prompt aquí..."),
31
+ outputs=gr.Textbox(),
32
  title="Generador de Texto con ALIA-40b",
33
  description="Este modelo genera texto utilizando ALIA-40b, un modelo LLM entrenado por BSC-LT."
34
  )
35
 
36
+
37
+
38
+
39
+
40
+
41
+
42
+
43
+
44
+
45
  if __name__ == "__main__":
46
  interfaz.launch()