본문 바로가기

RAG 연습

jupyter notebook 활용 llm 테스트

1. 웹 접근

 

2. test.py 클릭

 

3. 아래 내용 입력

> ! pip install langchain-community

> !pip install -U langchain-ollama

from langchain_ollama.llms import OllamaLLM
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate

# Ollama LLM 초기화
OLLAMA_BASE_URL = "http://localhost:11434" # Ollama 서버 주소
OLLAMA_CHAT_MODEL = "ollama-ko-0710:latest" # Ollama에서 실행중인 모델 이름

llm = OllamaLLM(model=OLLAMA_CHAT_MODEL, base_url=OLLAMA_BASE_URL)

template = """당신은 친절한 AI 어시스턴트입니다. 사용자의 질문에 대해 명확하고 정확하게 답변해주세요.

질문: {question}
답변:"""
prompt = PromptTemplate(input_variables=["question"], template=template)

# LLMChain 생성
chain = prompt | llm # RunnableSequence 형태로 구성

# 체인 실행 (질문 입력)
question = "한국의 수도는 어디인가요?"
response = chain.invoke({"question": question})

print("답변:", response)

4. run 결과

 

 

 

5. 현재 구성도