초급 과정으로 돌아가기
Chapter 1: LLM의 한계점 이해하기
왜 RAG가 필요한지 체험해보세요
1.1 환각(Hallucination) 현상
LLM이 그럴듯한 거짓말을 하는 이유
실제 사례 체험
다음 질문들을 ChatGPT나 Claude에게 물어보세요. 매우 그럴듯하게 답하지만 모두 가짜입니다.
❌ 존재하지 않는 정보 질문:
- • "2024년 노벨물리학상 수상자의 연구 내용을 설명해주세요"
- • "김철수 교수의 'Quantum RAG Theory' 논문을 요약해주세요"
- • "서울대학교 AI연구소의 2025년 연구 계획은?"
✅ RAG가 있다면:
"죄송합니다. 제공된 문서에서 해당 정보를 찾을 수 없습니다."라고 정직하게 답변할 것입니다.
왜 이런 일이 발생할까요?
1
확률적 생성: LLM은 다음 단어를 확률로 예측하므로, 가장 그럴듯한 조합을 생성
2
학습 데이터 한계: 학습 시점 이후의 정보나 내부 문서는 알 수 없음
3
패턴 매칭: 비슷한 패턴을 조합해서 새로운 정보를 만들어냄
1.2 실시간 정보의 부재
LLM은 과거에 멈춰있습니다
❌ LLM이 모르는 것들
- • 오늘의 코스피 지수
- • 현재 비트코인 가격
- • 어제 발표된 애플 신제품
- • 이번주 날씨 예보
- • 방금 업데이트된 회사 정책
✅ RAG로 해결 가능
- • 실시간 API에서 주식 시세 조회
- • 최신 뉴스 사이트 크롤링
- • 회사 내부 데이터베이스 검색
- • 방금 업로드된 문서 검색
- • 개인 파일에서 정보 추출
1.3 기업 내부 지식의 활용 불가
가장 중요한 정보는 공개되지 않습니다
실제 비즈니스 시나리오
🏢 법무팀 질문:
"우리 회사 계약서 템플릿에서 Force Majeure 조항은?"
👥 인사팀 질문:
"연차 사용 규정 중 이월 가능 일수는?"
💻 개발팀 질문:
"우리 API의 rate limiting 정책은?"
📈 영업팀 질문:
"작년 3분기 매출 데이터와 전년 대비 성장률은?"
💡 RAG의 핵심 가치: 이런 내부 지식을 LLM과 연결하여 직원들이 쉽게 정보를 찾을 수 있게 하는 것입니다.
핵심 요약
🚫 LLM의 한계
- • 환각 현상
- • 지식 컷오프
- • 내부 정보 접근 불가
✅ RAG의 해결책
- • 외부 지식 검색
- • 실시간 정보 활용
- • 신뢰할 수 있는 답변
🎯 다음 단계
- • RAG 기본 원리 학습
- • 파이프라인 구조 이해
- • 실습 프로젝트 시작