Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | ||||
| 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| 11 | 12 | 13 | 14 | 15 | 16 | 17 |
| 18 | 19 | 20 | 21 | 22 | 23 | 24 |
| 25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 바이브코딩
- Kubernetes
- 기록으로 실력을 쌓자
- 오블완
- Java
- CKA 기출문제
- LLM
- go
- PETERICA
- 티스토리챌린지
- 코틀린 코루틴의 정석
- golang
- SRE
- 컨텍스트 엔지니어링
- Pinpoint
- APM
- CloudWatch
- Linux
- tucker의 go 언어 프로그래밍
- 공부
- kotlin coroutine
- minikube
- MySQL
- kotlin
- Spring
- AI
- aws
- 정보처리기사 실기 기출문제
- AWS EKS
- CKA
Archives
- Today
- Total
피터의 개발이야기
[AI] LLM 학습을 위한 큐레이션 허브(LLM Engineer Toolkit) 본문
반응형
ㅁ 들어가며
LLM 공부·실습용으로 한 번 북마크해 두면 두고두고 참고하기
좋은 큐레이션 허브(LLM Engineer Toolkit) 정도로 정리할 수 있을 것 같아.
ㅁ 한눈에 보는 LLM 기술 지도
- LLM 학습·파인튜닝, 앱 개발, RAG, 추론, 서빙, 평가, 모니터링까지 LLM 라이프사이클 전체를 아우르는 120개+ 라이브러리를 카테고리별로 정리해 둔 레포지토리다.
- 어떤 단계에 어떤 도구를 써야 하는지 구조적으로 파악하면서, 필요한 순간에 바로 라이브러리 후보를 찾을 수 있다는 점이 큰 장점이다.
ㅁ 카테고리 구조가 잘 짜여 있음
- LLM Training, Application Development, RAG, Inference, Serving, Data Extraction, Data Generation, Agents, Evaluation, Monitoring 등으로 나뉘어 있어 학습 단계별·프로젝트 단계별로 필요한 영역을 빠르게 탐색할 수 있다.
- 각 카테고리 안에서도 Frameworks, Memory, Interface, Cache 같은 하위 섹션이 있어, “이제 메모리 붙여야 하는데 뭐 쓰지?” 같은 실전 고민에 바로 대응할 수 있다.
ㅁ 대표 라이브러리들을 빠르게 스캔 가능
- LangChain, LlamaIndex, Haystack, vLLM, DeepSpeed, Sentence-Transformers, MLflow, LangSmith, Ragas, CrewAI, LangGraph 등 핵심 라이브러리가 요약 설명과 함께 정리되어 있어, 신규 스택 조사할 때 출발점으로 쓰기 좋다.
- 각 항목은 간단한 한 줄 설명 + 링크 형태라, 관심 가는 것만 골라 GitHub/문서를 바로 타고 들어가며 레퍼런스를 확장해 나갈 수 있다.
ㅁ 실전 LLM 엔지니어링 관점에 맞는 큐레이션
- 라우팅(RouteLLM),
프롬프트 압축(LLMLingua, Selective Context),
세이프티/보안(Guardrails, NeMo Guardrails, LLM Guard, JailbreakEval),
관측·로깅(Helicone, Phoenix, Evidently) 등 실제 프로덕션에서 부딪히는 문제 영역도 따로 묶여 있다. - Multi-API(LiteLLM, AI Gateway),
에이전트 프레임워크(CrewAI, AutoGen, Pydantic AI, Langroid 등) 같이
최신 LLM 엔지니어링 트렌드도 폭넓게 포함되어 있어, 새로운 패턴을 따라잡기 좋다.
ㅁ 북마크·레퍼런스로 쓰기 좋은 이유
- 개인 북마크를 직접 관리하지 않아도,
LLM 관련 생태계가 업데이트될 때마다 레포지토리 하나만 확인해도 전반적인 도구 지형을 재파악할 수 있다. - Apache-2.0 라이선스로 공개된 큐레이션이라,
팀 내 위키나 개인 블로그 글에서 “LLM 도구 인덱스 레포” 정도로 링크하며 참고 자료로 활용하기 좋다.
반응형
'AI > AI이론 | 공부' 카테고리의 다른 글
| [AI] Backend · DevOps · SRE를 지나 AI Platform Engineer를 지향하게 된 이유 (0) | 2026.01.27 |
|---|---|
| [AI] RAG구성을 위한 FAISS란? (0) | 2026.01.14 |
| [AI] QAT(Quantization-Aware Training) — 양자화를 가장 똑똑하게 하는 방법 (0) | 2025.12.12 |
| [AI] LLM 양자화와 벡터 양자화(VQ)의 차이 (0) | 2025.12.10 |
| [AI] Transformer: Attention Is All You Need 논문 요약 (0) | 2025.12.07 |
Comments

