더이노베이터스

검색 증강 생성(RAG)

RAG란?

RAG는 외부 정보 검색 시스템과 LLM을 결합하여, 모델의 사전 지식 한계를 극복하는 AI 아키텍처입니다.

“질문에 대한 정확한 답을 모델이 직접 생성하기보다, 먼저 관련 문서를 찾고 그 내용을 바탕으로 응답을 생성한다.”

이 방식은 단순한 자연어 생성(NLG)이 아니라, **검색(Retrieval) + 생성(Generation)**의 하이브리드 형태입니다.

RAG 시스템 구조

  1. User Query Input (사용자 질문 입력) 사용자의 질문 또는 명령어는 시스템의 시작점입니다. 이 쿼리는 단순한 키워드가 아닌 자연어 문장 형태입니다.
  2. Vectorizer / Embedder (벡터화 모듈) 사용자 질문은 벡터 임베딩으로 변환됩니다. 이 과정에서 T**ransformer 기반 임베딩 모델 (예: OpenAI Embedding API, Sentence-BERT 등)**이 사용됩니다.
  3. Vector Search Engine (벡터 검색 엔진) 임베딩된 질문은 사전 구축된 문서 임베딩 인덱스와 비교되어 의미 기반으로 관련 문서가 검색됩니다.
    • 대표 엔진: FAISS, Weaviate, Pinecone, Vespa 등
  4. Retriever Output (문서 검색 결과 반환) 검색 결과는 순위 기반으로 3~10개의 문서가 반환되며, 이는 다음 단계에서 LLM에 함께 전달됩니다.
  5. Contextual Prompt Builder (프롬프트 확장) 반환된 문서 내용은 LLM에게 **프롬프트 맥락(context)**으로 주입됩니다. 이때 단순한 문서 연결이 아닌, 요약·필터링·분류를 거쳐 **최적의 입력 길이(context window)**에 맞게 구성됩니다.
  6. LLM (Large Language Model) 사용자의 질문 + 검색된 문서 컨텍스트를 기반으로, 최종 응답을 생성합니다.
    • 생성 모델: GPT-4, Claude, Cohere Command R, Gemini 등
  7. Output Response + Optional Source Highlighting 생성된 답변과 함께, 사용된 문서의 출처 표기 또는 하이라이트를 제공하여 신뢰성과 투명성을 강화할 수 있습니다.

구조적 특징 요약

구성 요소기능기술 예시
Vectorizer질문/문서 벡터화OpenAI Embedding, SBERT
Vector DB의미 기반 검색FAISS, Pinecone, Weaviate
Prompt Builder컨텍스트 최적화요약, Chunking, Ranking
LLM응답 생성GPT, Claude, Gemini
Response Layer응답 + 출처 표시하이라이트, 링크 첨부

고급 구성 예시

  • Multi-hop Retrieval: 질문에 따라 두 단계 이상의 검색 흐름이 필요한 경우, 단계별 컨텍스트 라우팅 기술을 함께 사용합니다.
  • Query Rewriting / Expansion: 질문의 의미를 명확히 하기 위해, 검색 전 쿼리를 재작성하거나 시맨틱 보정을 수행합니다.
  • Hybrid Retrieval: 키워드 기반 검색과 벡터 검색을 혼합하여 정확도와 리콜율 향상합니다.

최근 주목받는 RAG 기반 Tools 사례

  1. Perplexity.ai
    • 지식 검색형 LLM 툴의 대표주자
    • GPT-4 기반 + 실시간 웹 검색 연동으로 강력한 RAG 아키텍처 구현
    • 2025년 들어 B2B 솔루션 (Perplexity Enterprise Pro) 론칭 → 기업형 검색 어시스턴트 시장 공략
    • UX가 검색 엔진과 Q&A 어시스턴트의 중간 형태로 일반 사용자+전문가 모두 확보
    • 특징
      • 챗봇이 아니라 진짜 검색 대안으로 평가받음
      • 출처 링크 중심 투명성 UX가 Hallucination 대응 모범 사례
  2. Glean
    • 기업 내부 문서 검색 특화 AI 플랫폼
    • Notion, Slack, Gmail, Jira, Salesforce 등 다양한 기업 SaaS와 통합
    • 2025년에는 **“AI Answering Layer for Enterprise Stack”**로 재포지셔닝 → 진짜 기업용 Copilot 인프라
    • 특징
      • Microsoft Copilot 대비 SaaS 친화적·경량화된 RAG 시스템
      • 검색+LLM 통합 UX 고도화데이터 보안/접근 제어 UX 설계로 기업에서 빠르게 확산
  3. Microsoft 365 Copilot (with RAG Layer)
    • 2025년 기준 전세계적으로 가장 많이 도입된 LLM+RAG 시스템
    • 내부 문서, 메일, 스프레드시트 등 모든 업무 흐름에 RAG 컨텍스트 결합
    • 특히 SharePoint, Teams, OneDrive 연동이 매끄러워 엔터프라이즈 UX 표준이 되는 중
    • 특징
      • 에이전트+RAG+자동화 통합의 실전 사례
      • LLM 쓰려면 결국 RAG 레이어는 필수 → Copilot이 이를 대표함
  4. Slack GPT + Salesforce Einstein Copilot
    • 2025년 들어 Salesforce가 Einstein Copilot을 Slack과 통합 → 세일즈, 마케팅, 고객관리에서 RAG 활용 급증
    • Slack 대화 속 컨텍스트 기반 자동 요약, 작업 자동화, 문서 검색
    • CRM 데이터 기반 응답 생성도 모두 RAG 아키텍처 구조
    • 특징
      • 업무 메시지 기반 RAG 적용 확대
      • 생산성 자동화와 AI 문맥 연결이 동시에 이루어짐
  5. Haystack / LlamaIndex (RAG Frameworks)
    • RAG를 직접 구축하고자 하는 팀/기업/개발자 사이에서 인기 폭발
    • 특히 Haystack은 2025년 들어 “RAG-as-a-Service” 클라우드 버전 출시로 SaaS 시장 진입
    • LlamaIndex도 SAP, Oracle 등과 연동되는 커넥터 확대
    • 특징
      • 직접 구축형 AI 시스템 → 점점 더 많은 기업이 내부 도입 중
      • LLM+RAG 시스템을 빠르게 MVP 형태로 만들기 좋은 툴킷

마무리하며

단순한 AI 챗봇에서 벗어나, 지식 기반의 Copilot·에이전트 시대로 넘어가는 전환점에 있습니다. 이 흐름 속에서 RAG는 더 이상 옵션이 아닌 AI 서비스의 필수 기반 기술입니다.

TI Tech Lab 신유림연구원

Source

Avatar

theinnovators

Add comment