| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
- 오블완
- go
- aws
- Kubernetes
- tucker의 go 언어 프로그래밍
- 기록으로 실력을 쌓자
- MySQL
- Java
- 티스토리챌린지
- LLM
- AWS EKS
- kotlin
- CloudWatch
- golang
- CKA
- Claude
- CKA 기출문제
- PETERICA
- Spring
- kotlin coroutine
- AI
- docker
- 바이브코딩
- minikube
- 공부
- 코틀린 코루틴의 정석
- Rag
- 정보처리기사 실기 기출문제
- SRE
- HARNESS
- Today
- Total
목록2026/02/08 (5)
피터의 개발이야기
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며RAG를 처음 설계할 때는 자연스럽게 LLM과 Embedding에 시선이 간다.하지만 실제로 RAG를 붙여서 질의응답을 반복해보면,어느 순간 이런 느낌을 받게 된다.“모델은 괜찮은데, 답변이 뭔가 애매하다” 이때 많은 경우 문제는 LLM이 아니다.VectorDB 설정, 더 정확히 말하면 검색 튜닝에 있다. 이번 글에서는 RAG 파이프라인에서 VectorDB가 어떤 역할을 하고, 왜 튜닝이 성능을 좌우하는지, 그리고 어떤 기준으로 설정을 조정해야 하는지를 정리해보려 한다. ㅁ RAG에서 VectorDB가 병목이 되는 이유RAG의 흐름을 단순화하면 다음과 같다.질문 → 임베딩 →..
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며Week 2에서는 Embedding부터 VectorDB까지, RAG 시스템의 검색 품질을 결정하는 핵심 요소들을 하나씩 정리해 왔다. 처음에는 단순히 “임베딩을 만들고, 벡터 검색을 하면 되겠지”라고 생각했다. 하지만 실제로 파고들어 보니 전혀 아니었다.Embedding → Chunking → Vector Similarity → ANN(HNSW) → VectorDB 구조와 튜닝 이 모든 요소가 하나의 검색 파이프라인으로 연결되어 있었고, 어느 하나라도 잘못 설계되면 RAG 품질은 바로 무너졌다. 이번 글에서는 그동안 쪼개서 정리했던 내용을 다시 묶어, Wee..
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며앞선 글에서 Embedding, Vector Similarity, HNSW까지 정리했다면,이제 실제 VectorDB를 어떻게 쓰는지가 남는다.이번 글에서는 Weaviate를 기준으로,스키마 설계데이터 삽입 흐름벡터 검색하이브리드 검색(BM25 + Vector)을 정리한다. 중요한 점은 이것이다. Weaviate는 단순한 벡터 저장소가 아니라, “의미 기반 데이터 모델링 + 검색 엔진” 에 가깝다. ㅁ 왜 Weaviate인가VectorDB는 많다.Qdrant, Milvus, Pinecone 등 선택지는 충분하다.일전에 [AI] RAG구성을 위한 FAISS란?에서 FAISS를 정리하..
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며ANN과 HNSW는 VectorDB를 활용한 RAG 구현의 “심장”이다. Embedding은 의미를 벡터로 바꿔주고, Vector Similarity는 거리를 계산해 주지만, 수백만 개 벡터 중에서 실제로 무엇을 얼마나 빨리 찾을 수 있느냐는결국 ANN 인덱스가 결정한다. 그 중심에 있는 알고리즘이 바로 HNSW다.이번 글에서는 다음 흐름으로 정리해 보려 한다.ANN이 무엇인지왜 Brute-force 검색이 불가능한지HNSW가 어떻게 문제를 해결하는지그리고 실무에서 중요한 파라미터(M, ef)를 어떻게 바라봐야 하는지 ㅁ ANN이란 무엇인가ANN은 Approximate Neare..
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며Embedding 글에서 이야기했던 핵심은 이것이었다.Transformer가 만든 의미를 벡터로 “저장”했다면,이제 남은 문제는 하나다. 이 벡터들을 어떻게 비교할 것인가.많은 RAG 튜토리얼은 “임베딩하고 VectorDB에 넣으면 된다”에서 끝난다. 하지만 실제로 시스템을 만들어 보면 곧 느끼게 된다. 모델보다, 임베딩보다, 심지어 Chunking보다도 Similarity Metric이 검색 품질을 크게 좌우한다는 사실을. Vector Similarity는 단순한 계산 공식이 아니다.RAG에서 Vector Similarity는 곧,의미를 어떻게 해석할 것인가에 대한 설계다...
