luanpoppe commited on
Commit
57fd1ba
·
1 Parent(s): c6178da
_utils/gerar_relatorio_modelo_usuario/EnhancedDocumentSummarizer.py CHANGED
@@ -197,28 +197,18 @@ class EnhancedDocumentSummarizer(DocumentSummarizer):
197
  }
198
  )
199
 
200
- url_request = f"{api_url}/modelo/{self.id_modelo_do_usuario}"
201
- print("url_request: ", url_request)
202
- resposta = requests.get(url_request)
203
- print("resposta: ", resposta)
204
-
205
- if resposta.status_code != 200:
206
- return Response(
207
- {
208
- "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
209
- }
210
- )
211
-
212
- modelo_buscado = resposta.json()["modelo"]
213
- # from modelos_usuarios.models import ModeloUsuarioModel
214
-
215
- # # try:
216
- # modelo_buscado = ModeloUsuarioModel.objects.get(
217
- # pk=self.id_modelo_do_usuario
218
- # )
219
- # serializer = ModeloUsuarioSerializer(modelo_buscado)
220
- # print("serializer.data: ", serializer.data)
221
-
222
  # except:
223
  # return Response(
224
  # {
@@ -226,7 +216,24 @@ class EnhancedDocumentSummarizer(DocumentSummarizer):
226
  # }
227
  # )
228
 
229
- # print("modelo_buscado: ", modelo_buscado)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
230
 
231
  llm = ChatOpenAI(
232
  temperature=self.gpt_temperature,
 
197
  }
198
  )
199
 
200
+ # url_request = f"{api_url}/modelo/{self.id_modelo_do_usuario}"
201
+ # try:
202
+ # print("url_request: ", url_request)
203
+ # resposta = requests.get(url_request)
204
+ # print("resposta: ", resposta)
205
+ # if resposta.status_code != 200:
206
+ # print("Entrou no if de erro")
207
+ # return Response(
208
+ # {
209
+ # "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
210
+ # }
211
+ # )
 
 
 
 
 
 
 
 
 
 
212
  # except:
213
  # return Response(
214
  # {
 
216
  # }
217
  # )
218
 
219
+ # modelo_buscado = resposta.json()["modelo"]
220
+ from modelos_usuarios.models import ModeloUsuarioModel
221
+
222
+ try:
223
+ modelo_buscado = ModeloUsuarioModel.objects.get(
224
+ pk=self.id_modelo_do_usuario
225
+ )
226
+ serializer = ModeloUsuarioSerializer(modelo_buscado)
227
+ print("serializer.data: ", serializer.data)
228
+
229
+ except:
230
+ return Response(
231
+ {
232
+ "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
233
+ }
234
+ )
235
+
236
+ print("modelo_buscado: ", serializer.data["modelo"])
237
 
238
  llm = ChatOpenAI(
239
  temperature=self.gpt_temperature,
_utils/resumo_completo_cursor.py CHANGED
@@ -34,7 +34,7 @@ os.environ.get("LANGCHAIN_API_KEY")
34
  os.environ["LANGCHAIN_PROJECT"] = "VELLA"
35
 
36
 
37
- async def get_llm_summary_answer_by_cursor_complete(
38
  serializer, listaPDFs=None, contexto=None
39
  ):
40
  """Parâmetro "contexto" só deve ser passado quando quiser utilizar o teste com ragas, e assim, não quiser passar PDFs"""
@@ -89,12 +89,12 @@ async def get_llm_summary_answer_by_cursor_complete(
89
  full_text = " ".join([page.page_content for page in pages])
90
  # Contextualize chunks
91
  if serializer["should_have_contextual_chunks"]:
92
- contextualized_chunks = (
93
- await summarizer.contextual_retriever.contextualize_all_chunks(
94
- pages, allPdfsChunks
95
- )
96
- )
97
- chunks_passados = contextualized_chunks
98
  is_contextualized_chunk = True
99
  else:
100
  chunks_passados = allPdfsChunks
 
34
  os.environ["LANGCHAIN_PROJECT"] = "VELLA"
35
 
36
 
37
+ def get_llm_summary_answer_by_cursor_complete(
38
  serializer, listaPDFs=None, contexto=None
39
  ):
40
  """Parâmetro "contexto" só deve ser passado quando quiser utilizar o teste com ragas, e assim, não quiser passar PDFs"""
 
89
  full_text = " ".join([page.page_content for page in pages])
90
  # Contextualize chunks
91
  if serializer["should_have_contextual_chunks"]:
92
+ # contextualized_chunks = (
93
+ # await summarizer.contextual_retriever.contextualize_all_chunks(
94
+ # pages, allPdfsChunks
95
+ # )
96
+ # )
97
+ # chunks_passados = contextualized_chunks
98
  is_contextualized_chunk = True
99
  else:
100
  chunks_passados = allPdfsChunks
gerar_relatorio_modelo_usuario/views.py CHANGED
@@ -13,13 +13,13 @@ from rest_framework.parsers import MultiPartParser
13
  from drf_spectacular.utils import extend_schema
14
 
15
 
16
- class ResumoSimplesCursorCompletoView(AsyncAPIView):
17
  parser_classes = [MultiPartParser]
18
 
19
  @extend_schema(
20
  request=ResumoCursorCompeltoSerializer,
21
  )
22
- async def post(self, request):
23
  serializer = ResumoCursorCompeltoSerializer(data=request.data)
24
  if serializer.is_valid(raise_exception=True):
25
  print("\n\n\n")
@@ -44,9 +44,7 @@ class ResumoSimplesCursorCompletoView(AsyncAPIView):
44
  listaPDFs.append(temp_file_path)
45
  print("listaPDFs: ", listaPDFs)
46
 
47
- resposta_llm = await get_llm_summary_answer_by_cursor_complete(
48
- data, listaPDFs
49
- )
50
 
51
  final = resposta_llm
52
  print("\n\n\n")
 
13
  from drf_spectacular.utils import extend_schema
14
 
15
 
16
+ class ResumoSimplesCursorCompletoView(APIView):
17
  parser_classes = [MultiPartParser]
18
 
19
  @extend_schema(
20
  request=ResumoCursorCompeltoSerializer,
21
  )
22
+ def post(self, request):
23
  serializer = ResumoCursorCompeltoSerializer(data=request.data)
24
  if serializer.is_valid(raise_exception=True):
25
  print("\n\n\n")
 
44
  listaPDFs.append(temp_file_path)
45
  print("listaPDFs: ", listaPDFs)
46
 
47
+ resposta_llm = get_llm_summary_answer_by_cursor_complete(data, listaPDFs)
 
 
48
 
49
  final = resposta_llm
50
  print("\n\n\n")