LLM에 외부 지식을 붙이는 가장 실용적인 패턴, RAG. 2025년 시점에서 임베딩 모델 선택, 청킹 전략, 벡터 DB 선택, Rerank, Hybrid Search, 그리고 Fine-tuning과의 경계까지. Notion AI와 Claude의 검색 아키텍처를 해부하고, 한국어 RAG의 특수성과 비용·지연시간 최적화 체크리스트를 한 호흡에 정리합니다.
Vector DB의 모든 것! 벡터 임베딩 원리, 유사도 검색(코사인/유클리드/내적), 인덱싱 알고리즘(HNSW/IVF/PQ), Pinecone vs Weaviate vs Qdrant vs Milvus vs pgvector 비교, 하이브리드 검색, 필터링, 프로덕션 운영, 성능 벤치마크.
임베딩의 기본 개념부터 주요 모델 비교(OpenAI, Cohere, BGE, E5, GTE, Jina), Sentence Transformers 활용, 벡터 데이터베이스(Pinecone, Weaviate, Milvus, Chroma, FAISS) 인덱싱 전략, 유사도 검색, RAG 파이프라인 통합, 파인튜닝, MTEB 벤치마크 평가까지 임베딩 모델의 모든 것을 실전 코드와 함께 체계적으로 다룹니다.
RAG(Retrieval-Augmented Generation) 파이프라인의 프로덕션 구축을 체계적으로 다룹니다. 임베딩 모델 비교, 벡터 DB 선택(Pinecone·Milvus·Weaviate·Qdrant·Chroma), 청킹 전략, 하이브리드 검색, 리랭킹, RAGAS 평가 메트릭, 장애 대응까지 실전 운영 노하우를 제공합니다.