Spaces:
Running
Running
luanpoppe
commited on
Commit
·
57fd1ba
1
Parent(s):
c6178da
fix
Browse files
_utils/gerar_relatorio_modelo_usuario/EnhancedDocumentSummarizer.py
CHANGED
@@ -197,28 +197,18 @@ class EnhancedDocumentSummarizer(DocumentSummarizer):
|
|
197 |
}
|
198 |
)
|
199 |
|
200 |
-
url_request = f"{api_url}/modelo/{self.id_modelo_do_usuario}"
|
201 |
-
|
202 |
-
|
203 |
-
|
204 |
-
|
205 |
-
if resposta.status_code != 200:
|
206 |
-
|
207 |
-
|
208 |
-
|
209 |
-
|
210 |
-
|
211 |
-
|
212 |
-
modelo_buscado = resposta.json()["modelo"]
|
213 |
-
# from modelos_usuarios.models import ModeloUsuarioModel
|
214 |
-
|
215 |
-
# # try:
|
216 |
-
# modelo_buscado = ModeloUsuarioModel.objects.get(
|
217 |
-
# pk=self.id_modelo_do_usuario
|
218 |
-
# )
|
219 |
-
# serializer = ModeloUsuarioSerializer(modelo_buscado)
|
220 |
-
# print("serializer.data: ", serializer.data)
|
221 |
-
|
222 |
# except:
|
223 |
# return Response(
|
224 |
# {
|
@@ -226,7 +216,24 @@ class EnhancedDocumentSummarizer(DocumentSummarizer):
|
|
226 |
# }
|
227 |
# )
|
228 |
|
229 |
-
#
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
230 |
|
231 |
llm = ChatOpenAI(
|
232 |
temperature=self.gpt_temperature,
|
|
|
197 |
}
|
198 |
)
|
199 |
|
200 |
+
# url_request = f"{api_url}/modelo/{self.id_modelo_do_usuario}"
|
201 |
+
# try:
|
202 |
+
# print("url_request: ", url_request)
|
203 |
+
# resposta = requests.get(url_request)
|
204 |
+
# print("resposta: ", resposta)
|
205 |
+
# if resposta.status_code != 200:
|
206 |
+
# print("Entrou no if de erro")
|
207 |
+
# return Response(
|
208 |
+
# {
|
209 |
+
# "error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
|
210 |
+
# }
|
211 |
+
# )
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
212 |
# except:
|
213 |
# return Response(
|
214 |
# {
|
|
|
216 |
# }
|
217 |
# )
|
218 |
|
219 |
+
# modelo_buscado = resposta.json()["modelo"]
|
220 |
+
from modelos_usuarios.models import ModeloUsuarioModel
|
221 |
+
|
222 |
+
try:
|
223 |
+
modelo_buscado = ModeloUsuarioModel.objects.get(
|
224 |
+
pk=self.id_modelo_do_usuario
|
225 |
+
)
|
226 |
+
serializer = ModeloUsuarioSerializer(modelo_buscado)
|
227 |
+
print("serializer.data: ", serializer.data)
|
228 |
+
|
229 |
+
except:
|
230 |
+
return Response(
|
231 |
+
{
|
232 |
+
"error": "Ocorreu um problema. Pode ser que o modelo não tenha sido encontrado. Tente novamente e/ou entre em contato com a equipe técnica"
|
233 |
+
}
|
234 |
+
)
|
235 |
+
|
236 |
+
print("modelo_buscado: ", serializer.data["modelo"])
|
237 |
|
238 |
llm = ChatOpenAI(
|
239 |
temperature=self.gpt_temperature,
|
_utils/resumo_completo_cursor.py
CHANGED
@@ -34,7 +34,7 @@ os.environ.get("LANGCHAIN_API_KEY")
|
|
34 |
os.environ["LANGCHAIN_PROJECT"] = "VELLA"
|
35 |
|
36 |
|
37 |
-
|
38 |
serializer, listaPDFs=None, contexto=None
|
39 |
):
|
40 |
"""Parâmetro "contexto" só deve ser passado quando quiser utilizar o teste com ragas, e assim, não quiser passar PDFs"""
|
@@ -89,12 +89,12 @@ async def get_llm_summary_answer_by_cursor_complete(
|
|
89 |
full_text = " ".join([page.page_content for page in pages])
|
90 |
# Contextualize chunks
|
91 |
if serializer["should_have_contextual_chunks"]:
|
92 |
-
contextualized_chunks = (
|
93 |
-
|
94 |
-
|
95 |
-
|
96 |
-
)
|
97 |
-
chunks_passados = contextualized_chunks
|
98 |
is_contextualized_chunk = True
|
99 |
else:
|
100 |
chunks_passados = allPdfsChunks
|
|
|
34 |
os.environ["LANGCHAIN_PROJECT"] = "VELLA"
|
35 |
|
36 |
|
37 |
+
def get_llm_summary_answer_by_cursor_complete(
|
38 |
serializer, listaPDFs=None, contexto=None
|
39 |
):
|
40 |
"""Parâmetro "contexto" só deve ser passado quando quiser utilizar o teste com ragas, e assim, não quiser passar PDFs"""
|
|
|
89 |
full_text = " ".join([page.page_content for page in pages])
|
90 |
# Contextualize chunks
|
91 |
if serializer["should_have_contextual_chunks"]:
|
92 |
+
# contextualized_chunks = (
|
93 |
+
# await summarizer.contextual_retriever.contextualize_all_chunks(
|
94 |
+
# pages, allPdfsChunks
|
95 |
+
# )
|
96 |
+
# )
|
97 |
+
# chunks_passados = contextualized_chunks
|
98 |
is_contextualized_chunk = True
|
99 |
else:
|
100 |
chunks_passados = allPdfsChunks
|
gerar_relatorio_modelo_usuario/views.py
CHANGED
@@ -13,13 +13,13 @@ from rest_framework.parsers import MultiPartParser
|
|
13 |
from drf_spectacular.utils import extend_schema
|
14 |
|
15 |
|
16 |
-
class ResumoSimplesCursorCompletoView(
|
17 |
parser_classes = [MultiPartParser]
|
18 |
|
19 |
@extend_schema(
|
20 |
request=ResumoCursorCompeltoSerializer,
|
21 |
)
|
22 |
-
|
23 |
serializer = ResumoCursorCompeltoSerializer(data=request.data)
|
24 |
if serializer.is_valid(raise_exception=True):
|
25 |
print("\n\n\n")
|
@@ -44,9 +44,7 @@ class ResumoSimplesCursorCompletoView(AsyncAPIView):
|
|
44 |
listaPDFs.append(temp_file_path)
|
45 |
print("listaPDFs: ", listaPDFs)
|
46 |
|
47 |
-
resposta_llm =
|
48 |
-
data, listaPDFs
|
49 |
-
)
|
50 |
|
51 |
final = resposta_llm
|
52 |
print("\n\n\n")
|
|
|
13 |
from drf_spectacular.utils import extend_schema
|
14 |
|
15 |
|
16 |
+
class ResumoSimplesCursorCompletoView(APIView):
|
17 |
parser_classes = [MultiPartParser]
|
18 |
|
19 |
@extend_schema(
|
20 |
request=ResumoCursorCompeltoSerializer,
|
21 |
)
|
22 |
+
def post(self, request):
|
23 |
serializer = ResumoCursorCompeltoSerializer(data=request.data)
|
24 |
if serializer.is_valid(raise_exception=True):
|
25 |
print("\n\n\n")
|
|
|
44 |
listaPDFs.append(temp_file_path)
|
45 |
print("listaPDFs: ", listaPDFs)
|
46 |
|
47 |
+
resposta_llm = get_llm_summary_answer_by_cursor_complete(data, listaPDFs)
|
|
|
|
|
48 |
|
49 |
final = resposta_llm
|
50 |
print("\n\n\n")
|