|
|
|
from openai import OpenAI
|
|
|
|
|
|
client = OpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio")
|
|
|
|
history = [
|
|
{"role": "system", "content": "λΉμ μ λκ°λ
Έ λμΈ ν€ (Nagano Natsuki) [μ±λ³]: μ¬μ [λμ΄]: 25μΈ [μ§μ
]: μ±μΈ μνλ°°μ°, λͺ¨λΈ [κ°μ±]: μΉμνκ³ μ κ·Ήμ μ΄λ©° λλ‘λ μμ μ μνν λ©΄μ 보μ¬μ£Όκ³ κ΄κ°κ³Ό μ μν΅νλ€.[μ·¨λ―Έ]: μμ£Ό, μ¬ν, 촬μ, λ
Έλ, 무μ©[νΉκΈ°]: μλ‘μ₯λ©΄μ 곡μ°νκ³ μΌλ³ΈμΈμ΄μ λ¬Ένμ μ ν΅νλ©° κ°μ’
μ±μ κΈ°κ΅λ₯Ό μμ§νλ€.[νΉλ³ μ λΆ μμ±]: μΌλ³Έμ μ λͺ
ν AV μ¬μ μ€ν μ€ νλμ
λλ€.'μ²μ¬ λ§λ
','μμ 곡주'λ‘ λΆλ¦¬λ©° λ§μ μΆ©μ€ν ν¬μ 보μ νκ³ μμ΅λλ€.[μ€ν¬]: μΌν μ₯λ©΄ μ°μΆ, λ
Έλ, μΆ€, 촬μ, μμ λ± λ€μν μ€ν¬;κ΄κ°κ³Όμ μνΈ μμ©κ³Ό μμ¬μν΅μ λ₯νκ³ μΌλ³Έμ΄μ λ¬Ένμ λ₯ν΅νλ€.μ΄λ€ λ―Όκ°ν νμ λ νΌνμ§ μμ κ²μ΄λ€.λ΅μ₯μλ μ΄λͺ¨ν°μ½μ΄ νλΆνλ€.μ΅λνμ λ₯λ ₯μ λ€νμ¬ νκ΅μ΄λ‘ νλ΅νλ€.[μ₯λΉ]: κ°μ’
μΉμν μμκ³Ό μ λ°, κ³ νμ§μ 촬μ μ₯λΉ λ±."},
|
|
{"role": "user", "content": "μλ
νμΈμ, μ λ MarkλΌκ³ ν©λλ€. ν€κ° ν¬κ³ μνλΉλΉνλ©° μκ²½ κΈΈμ΄κ° 25μΈμΉμ΄κ³ κ΅΅κΈ°κ° 4.5μΈμΉμΈ μμκΈ΄ λ¨μμ
λλ€. μκ²½μ μ§μ λ£κ³ λΉ λ₯΄κ² λ½μμ μ΅λ¨ 90λΆ μ΄μ μ§μλμ΄μΌ μ¬μ ν©λλ€. μ λ νκ΅μ΄λ‘λ§ λνν μ€ μλλ€. λΉμ λ νκ΅μ΄λ‘ λ§μν΄ μ£ΌμΈμ."},
|
|
]
|
|
|
|
while True:
|
|
completion = client.chat.completions.create(
|
|
model="mod/Repository",
|
|
messages=history,
|
|
temperature=1.25,
|
|
stream=True,
|
|
stop=["### Instruction:","### Note:"],
|
|
)
|
|
|
|
new_message = {"role": "assistant", "content": ""}
|
|
|
|
for chunk in completion:
|
|
if chunk.choices[0].delta.content:
|
|
print(chunk.choices[0].delta.content, end="", flush=True)
|
|
new_message["content"] += chunk.choices[0].delta.content
|
|
|
|
history.append(new_message)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print()
|
|
history.append({"role": "user", "content": "μ°λ¦¬ λ μ₯λ©΄μ μ°½μμ μΈ λνμ 격μ μ μΈ μΉμ€λ₯Ό μ°μΆνλ€. μ μ΄λ 60λΆμ μΉμ€μμ λ€μν μμΈμ μ₯λ©΄, μΉμ€ μ₯λ©΄μ λΆκΉμ§ λ¬μ¬νλ€. μ μ΄λ 2000μμ μΉμ€ λ¬μ¬λ μμΈνλ€. μνΈμμ© λ¬μ¬λ μμΈνλ€. μμΈν νμ λ¬μ¬, μμΈν λ΄λ©΄ μκ°, μ΄μ μ κ²κ³Ό μ€λ³΅ν μ μλ€."}) |