1. 웹 접근
2. test.py 클릭
3. 아래 내용 입력
> ! pip install langchain-community
> !pip install -U langchain-ollama
from langchain_ollama.llms import OllamaLLM
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
# Ollama LLM 초기화
OLLAMA_BASE_URL = "http://localhost:11434" # Ollama 서버 주소
OLLAMA_CHAT_MODEL = "ollama-ko-0710:latest" # Ollama에서 실행중인 모델 이름
llm = OllamaLLM(model=OLLAMA_CHAT_MODEL, base_url=OLLAMA_BASE_URL)
template = """당신은 친절한 AI 어시스턴트입니다. 사용자의 질문에 대해 명확하고 정확하게 답변해주세요.
질문: {question}
답변:"""
prompt = PromptTemplate(input_variables=["question"], template=template)
# LLMChain 생성
chain = prompt | llm # RunnableSequence 형태로 구성
# 체인 실행 (질문 입력)
question = "한국의 수도는 어디인가요?"
response = chain.invoke({"question": question})
print("답변:", response)
4. run 결과
5. 현재 구성도