| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
- CKA 기출문제
- 코틀린 코루틴의 정석
- 공부
- go
- tucker의 go 언어 프로그래밍
- 바이브코딩
- CKA
- Kubernetes
- AI
- 오블완
- SRE
- Rag
- kotlin coroutine
- Spring
- 정보처리기사 실기 기출문제
- kotlin
- minikube
- 기록으로 실력을 쌓자
- Java
- Pinpoint
- golang
- MySQL
- APM
- PETERICA
- Linux
- CloudWatch
- LLM
- 티스토리챌린지
- aws
- AWS EKS
- Today
- Total
목록전체 글 (985)
피터의 개발이야기
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며실제로 Claude을 효율적으로 사용하기 위해서는 워크플로우 구조(workflow)를 이해해야 한다.LLM은 단지 추론 엔진일 뿐이고, 실제 문제 해결은 여러 단계의 작업을 어떻게 연결하느냐에 따라 결정된다.Anthropic에서 정리한 글 “Common workflow patterns for AI agents” 역시 같은 메시지를 전달한다.좋은 Agent 시스템은 좋은 Workflow 설계에서 나온다. ㅁ Agent 시스템의 본질AI Agent는 단순한 모델 호출이 아닌, 실제로는 다음 요소들이 결합된 작은 프로그램 구조에 가깝다.ㅇ LLM reasoning(한번더 생각한다)ㅇ tool / API 호출ㅇ 중간 결과 저장ㅇ 반복적인 평가와 개선 즉 ..
나는 02학번으로 가톨릭대 신학교를 졸업했다.그리고 2013년부터 소프트웨어 개발자로 살아왔다. 처음에는 서로 다른 길처럼 보였다.신학은 존재와 의미를 묻는 학문이었고,개발은 현실의 문제를 해결하는 기술이었다. 하지만 삶을 살아가면서 깨닫게 되었다.배움은 현실과 분리된 것이 아니라현실을 살아가기 위해 계속 이어지는 과정이라는 것을. 개발자로 일하면서 나는 더 깊이 이해하고 싶었다.소프트웨어가 어떻게 만들어지는지,그리고 앞으로 세상을 바꿀 인공지능이 무엇인지. 그래서 다시 학교에 들어갔다. 소프트웨어공학을 공부했고,그 다음에는 인공지능과 빅데이터를 공부했다. 신학교 이후사이버대학교를 두 번 더 졸업했다. 돌아보면 나의 길은 단순하다. 현실이 나에게 질문을 던졌고,나는 그 질문에 답하기 위해 다시 배웠다.그..
ㅁ 들어가며[AI] Agentic Workflow와 harness 개념 중심을 작성하면서 Harness(발음은 "하-니스"이다^^)에 대해서 알게 되었다.처음에는 단순히 “LLM을 실행시키는 코드” 정도로 이해했지만, 최근 여러 사례를 살펴보면서 생각이 조금 바뀌었다.LLM 자체는 두뇌일 뿐이다.실제 시스템에서 일을 하게 만드는 것은 Harness다.오늘 한 개발자가 다음 두 가지에 대해서 비교 질문을 주었다.Ralph Loop (Ralph Wiggum Technique)Agentic Workflow Harness둘 다 AI 에이전트를 실행하는 구조이지만, 철학과 구현 방식이 상당히 다르다.이 차이를 이해하면 AI 에이전트 시스템을 어떻게 설계해야 하는지 방향이 보이기 시작한다. ㅁ Harness란 무엇..
ㅁ 들어가며부의 흐름을 이해하고 싶어서 읽었던 책이 부의 대이동이었다.당시 책을 읽으며 느낀 점은 하나였다. 이 책은 단순히 투자 전략을 설명하는 책이 아니라, 돈이 이동하는 구조를 설명하는 책이라는 점이다. 금리, 환율, 채권, 달러 같은 요소들이 각각 따로 움직이는 것이 아니라 하나의 시스템 안에서 서로 영향을 주며 움직인다는 관점이 인상적이었다. 그래서 이번에는 환율의 대전환을 읽어 보려고 한다.하지만 바로 책의 내용을 따라가기보다는, 먼저 저자가 어떤 방식으로 시장을 설명하는 사람인지 이해하는 것이 더 중요하다고 생각했다. ㅁ 왜 작가를 먼저 이해하려 하는가경제서를 읽다 보면 같은 현상을 전혀 다른 방식으로 설명하는 저자들을 만나게 된다.어떤 사람은 시장을 예측하려 하고, 어떤 사람은 특정 자..
ㅁ 작가 이해하기: 존 카밧진은 어떤 사람인가『처음 만나는 마음챙김 명상』을 읽으면서 한 가지 궁금해졌다.이 책을 쓴 사람은 어떤 배경에서 이런 언어를 선택했을까.작가를 이해하면, 글은 설명이 아니라 대화가 된다. ㅇ 존 카밧진의 배경존 카밧진(Jon Kabat-Zinn)은 종교 지도자가 아니다. 그는 MIT에서 수학한 분자생물학 박사이며, 매사추세츠 의과대학 교수였다.그의 출발점은 수행이 아니라 과학이었다. 1979년 그는 병원 내에 MBSR(Mindfulness-Based Stress Reduction, 마음챙김 기반 스트레스 완화) 프로그램을 만들었다.만성 통증과 스트레스 환자들을 대상으로 8주간 명상 훈련을 진행했고, 그 효과를 임상 데이터로 검증했다.즉, 그는 명상을 ‘신비 체험’이 아니라 ‘훈..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ EP 86. 진짜 내 일을 해결하는 Agentic Workflow (Lablup 신정규 대표) 영상의 핵심 흐름을 Agentic Workflow와 harness 개념 중심으로 챕터화한 요약이다. 각 구간은 실제 대화 흐름 기준으로 묶었으며, 실무 적용 포인트를 중심으로 정리하였다. ㅁ Agentic AI의 패러다임 전환핵심 인사이트(약 31:27)AI 성능 확장은 더 이상 모델 크기 증가만으로 해결되지 않는다.대신 에이전트 수를 늘리는 방식(agent swarm)으로 확장한다.즉, 단일 모델 → 다수 에이전트 협업 구조로 패러다임이 이동 중이다.에이전트를 하나에서 10개, 20개로 늘리는 방향으로 확장이 이동했다 실무 적용실제 시스템 구조도 ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며AI 코딩 도구를 처음 접하면 대부분 이렇게 생각한다.“이제 코드를 대신 써주는 도구가 생겼구나.”하지만 실제로 Agent 기반 개발을 이해하게 되면 생각이 완전히 바뀐다.AI는 단순히 코드를 대신 작성하는 도구가 아니라 코드를 만들어내는 시스템 자체를 설계하는 기술로 발전하고 있기 때문이다. 이 흐름을 이해하려면 두 가지 개념이 중요하다.Agentic WorkflowHarness이 두 개념은 앞으로 AI 개발 방식의 구조를 설명하는 핵심 키워드가 된다. ㅁ Agentic Workflow — AI가 일을 수행하는 방식Agentic Workflow는 간단히 말하면AI 에이전트들이 협력하여 하나의 작업을 완성하는 구조다.기존 AI 사용 방식은 매..
ㅁ 들어가며 — 선거를 보면 정치가 아니라 금융 조건이 보인다https://www.youtube.com/watch?v=RyOrBmiAaCI 이 영상은 특정 인물이나 선거 전술을 설명하는 것처럼 보이지만, 실제로는 금리–유동성–달러–자산시장이 하나의 시스템으로 움직이는 구조를 해석하는 내용에 가깝다. 우리는 보통 선거를 이념, 공약, 지지율로 해석한다.하지만 시장은 전혀 다른 질문을 한다. “누가 당선되는가?”가 아니라 “어떤 금융 환경이 만들어지는가?” 이 영상은 바로 그 지점을 파고든다.선거는 원인이 아니라 금리와 유동성 경로를 바꾸는 트리거로 작동한다.즉, 정치 이벤트를 이야기하지만 본질은 거시 금융 사이클이다. ㅁ 왜 금리가 모든 것의 중심에 있는가금리는 단순히 물가를 잡는 도구가 아니다.시스..
ㅁ 들어가며연산이 아니라 데이터 이동이 병목이었다 LLM 인프라를 처음 이해할 때 가장 많이 하는 오해가 있다. 성능이 부족한 이유를 GPU의 FLOPS에서 찾는 것이다. 하지만 실제 운영 환경에서 마주치는 병목은 전혀 다른 곳에 있다. GPU는 계산을 못 해서 느린 것이 아니라, 계산에 필요한 weight가 메모리에서 도착하기를 기다리느라 멈춰 있는 시간이 대부분이다. 이번 정리를 통해 HBM 세대의 진화는 단순한 속도 향상이 아니라 데이터 이동 구조 자체를 바꾸는 과정이었다는 것을 이해하게 되었다. FLOPS(Floating Point Operations Per Second)→ 초당 부동소수점 연산 횟수 ㅁ 왜 LLM은 메모리 중심 워크로드인가LLM의 연산 흐름은 놀라울 정도로 단순하다.we..
ㅁ 이 책을 읽게 된 이유이 책은 단순한 투자서가 아니라,환율·금리·채권·달러·금이라는 요소들이 어떻게 연결되어 움직이는지를‘돈의 흐름’이라는 하나의 구조로 설명한다.개별 자산의 전망을 맞히는 것이 아니라,위기와 성장 국면에서 자본이 어디로 이동하는지 판단하는 기준을 얻고자 읽었다.ㅁ 오건영은 누구인가?오건영은 예측하는 사람이 아니라 구조를 설명하는 사람이다특정 시점의 주가나 환율을 맞히는 데 관심이 없다왜 그런 방향으로 움직일 수밖에 없는지를 설명한다결과보다 과정과 연결 관계를 중시한다그는 시장을 단일 자산으로 보지 않는다환율, 금리, 채권, 주식, 달러, 금을 분리하지 않는다하나의 자산 변화는 다른 자산의 원인이자 결과가 된다항상 ‘자본 이동’이라는 공통 축으로 설명한다오건영의 설명은 정책과 시장을 ..
[AI] Peterica의 AI공부와 비젼 정리 ㅁ 들어가며나는 백엔드 개발자로 시작했고, DevOps와 SRE 성격의 업무를 거치며 서비스 운영을 경험해 왔다.그러다 최근 LLM 기반 시스템을 직접 설계하면서 관점이 바뀌었다.AI는 더 이상 “모델 호출”이 아니라운영 대상 시스템이라는 생각이 들기 시작했다.그래서 개인적으로 LLM 학습 노트를 만들었다.단순 이론 정리가 아니라, 실제 서비스를 만들고 운영한다는 관점에서 정리한 기록이다. ㅁ 왜 LLM 학습 노트를 만들었나처음에는 RAG 구현이 목적이었다.하지만 파고들수록 느꼈다.Retriever 품질은 Embedding과 Chunking에서 결정되고RAG 성능은 VectorDB 튜닝과 Reranking에서 갈리며최종 응답 품질은 결국 Transforme..
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며RAG를 처음 붙였을 때 가장 쉽게 드는 생각은 이거다.“문서는 잘 검색되는데, 왜 답변은 여전히 애매할까?”Retriever도 튜닝했고, Ranker도 붙였고, 모델도 바꿔봤다.그런데도 답변 품질은 기대만큼 올라가지 않는다.이 지점에서 많은 사람이 LLM 성능을 의심한다. 하지만 실제로 문제의 원인은 대부분 Reader 단계, 정확히 말하면 프롬프트와 컨텍스트 구성에 있다. 이번 글에서는 RAG의 마지막 단계인 Reader를 단순한 “모델 호출”이 아니라 품질을 결정하는 최종 시스템 레이어로 바라보며, 프롬프트 설계와 Hallucination 문제를 어떻게 다뤄야 하는지 정리..
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며 - Retriever 다음에 반드시 필요한 이유앞선 글에서 Retriever를 정리하였다. Retriever는 빠르지만, 정확하지는 않다.VectorDB 검색이든 BM25든, Retriever의 역할은 어디까지나 “후보군을 넓게 가져오는 것”이다. 보통 구조는 다음과 같다.Retriever: 관련 있어 보이는 문서 Top-50 ~ 100Ranker: 그중에서 정말 중요한 문서 Top-5 ~ 10이 두 단계를 분리하지 않으면 속도와 정확도를 동시에 만족시키기 어렵다.이번 글에서는 왜 Ranker가 필요한지, 그리고 Cross-Encoder 기반 Reranking이 왜 사실상 표준..
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며“LLM이 똑똑하면 답변도 좋아지겠지.”하지만 실제로 RAG를 운영해보면, 품질 문제의 원인은 거의 항상 같은 지점에서 시작된다.Retriever가 잘못된 문서를 가져온다. 아무리 좋은 LLM을 써도, 아무리 프롬프트를 다듬어도, 입력 컨텍스트가 틀리면 결과는 틀릴 수밖에 없다.RAG에서도 결국 이 원칙이 그대로 적용된다. Garbage In, Garbage Out이번 글에서는 RAG 파이프라인의 첫 단계인 Retriever를 중심으로,Dense 검색Sparse 검색Hybrid 검색이 세 가지 방식이 왜 등장했고, 실무에서는 왜 Hybrid가 사실상 기본이 되었는지를 정리해본다..
[AI] LLM 학습 노트 공개 - Transformer부터 RAG까지, 그리고 운영 가능한 AI 시스템을 향해 ㅁ 들어가며RAG(Retrieval-Augmented Generation)를 처음 접했을 때는 구조가 단순해 보인다.질문을 받고 → 문서를 찾고 → LLM에게 넘긴다.그래서 자연스럽게 이렇게 생각하게 된다. “LLM만 잘 고르고, 임베딩만 잘 쓰면 되는 거 아닐까?” 하지만 실제로 RAG를 붙여서 몇 번만 질의응답을 반복해보면금방 다른 감각을 얻게 된다.답변이 애매하다근거 문서가 엉뚱하다모델을 바꿔도 품질이 크게 나아지지 않는다이때 문제는 대부분 LLM이 아니다.RAG는 모델 기술이 아니라 아키텍처 문제에 가깝다.이번 글에서는 RAG를 기능이 아닌 시스템 파이프라인으로 바라보며,왜 구조 이해가..
