이 레슨과 관련된 학습 키워드
인공지능(AI) — 기계가 생각하는 법 → 자연어처리(NLP) — 기계가 언어를 이해하다 → NLP 응용 — 번역, 요약, 질의응답 → 실전 응용
LLM의 한계를 극복하는 RAG 아키텍처 — 문서 검색, 벡터 DB, 파이프라인 구현부터 실전 배포까지
오늘은 {RAG→래그}의 핵심 개념을 배워보겠습니다.
{LLM→엘엘엠}은 강력하지만 두 가지 근본적 한계가 있어요.
첫 번째는 {hallucination→할루시네이션}으로, 그럴듯하지만 틀린 정보를 만들어내는 현상이에요.
다이어그램 왼쪽 빨간 영역을 보시면, {LLM→엘엘엠} 단독으로 추론할 때의 문제가 나와있어요.
존재하지 않는 논문을 자신 있게 인용하기도 합니다.
두 번째는 로, 학습 데이터 이후 정보를 전혀 모른다는 거예요.
예를 들어 2024년까지 학습한 모델은 2025년 뉴스를 답할 수 없죠.
가운데 초록 영역을 보시면, {RAG→래그}가 이 문제를 어떻게 해결하는지 보여줍니다.
{RAG→래그}는 사용자 질문을 받으면 먼저 관련 문서를 합니다.
검색된 문서를 프롬프트에 삽입해서 {LLM→엘엘엠}에게 근거를 제공하는 거예요.
그러면 모델이 으로 정확한 답변을 생성합니다.
오른쪽 보라색 영역의 비유를 보시면, 시험 방식에 비교한 거예요.
{LLM→엘엘엠} 단독은 기억에만 의존하는 {closed-book→클로즈드북} 시험과 같아요.
반면 {RAG→래그}는 참고자료를 보며 답하는 오픈북 시험이에요.
하단 비교 표를 보시면 실제 질문에서의 차이가 극명합니다.
같은 질문에 {LLM→엘엘엠} 단독은 추측과 사실을 섞어 답하고 출처도 없어요.
{RAG→래그}는 검색된 최신 문서를 인용하며 정확하게 답변합니다.
정확도도 60%대에서 90% 이상으로 크게 올라갑니다.
{RAG→래그}는 2020년 메타의 Lewis 등이 발표한 논문에서 처음 제안되었어요.
이제 {LLM→엘엘엠}의 환각과 지식 한계를 외부 검색으로 해결하는 핵심 패러다임을 이해하셨죠.
다음 블록에서는 {RAG→래그}의 전체 아키텍처를 자세히 살펴보겠습니다.
선생님: {LLM→엘엘엠}이 왜 혼자서는 모든 질문에 정확히 답할 수 없을까요?
학생: 학습 데이터에 없는 최신 정보나 비공개 문서의 내용은 알 수 없으니까요.
선생님: 맞아요. 그런데 {fine-tuning→파인튜닝}으로 새 정보를 넣으면 되지 않을까요?
학생: 비용이 크고 실시간 업데이트가 어렵잖아요. 매일 바뀌는 정보를 매번 학습시킬 수는 없으니까요.
선생님: 정확해요. 그래서 {RAG→래그}가 검색을 통해 최신 정보를 실시간으로 보충하는 거예요.
학생: 그러면 {RAG→래그}는 모델 자체를 바꾸지 않고 입력만 풍부하게 만드는 방식이군요.