| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
- 공부
- kotlin coroutine
- Spring
- 오블완
- aws
- CKA
- CloudWatch
- AI
- PETERICA
- 정보처리기사 실기 기출문제
- Pinpoint
- Java
- MySQL
- 기록으로 실력을 쌓자
- Kubernetes
- kotlin querydsl
- 코틀린 코루틴의 정석
- kotlin
- 바이브코딩
- APM
- CKA 기출문제
- AWS EKS
- Linux
- 티스토리챌린지
- golang
- tucker의 go 언어 프로그래밍
- minikube
- SRE
- 컨텍스트 엔지니어링
- go
- Today
- Total
목록AI (68)
피터의 개발이야기
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며 오늘 회사 동료와 LLM 양자화에 대해 이야기하던 중, 나도 모르게 벡터 양자화(Vector Quantization) 개념을 섞어서 설명하고 있었다. 두 기술은 모두 "연속적인 값을 이산화(discretize)한다"는 공통점이 있어서 자연스럽게 비슷한 것으로 느껴지지만, 실제로는 목적도, 적용 대상도, 결과도 완전히 다르다. 정확한 이해를 위해 두 개념을 비교 분석하며 정리한다. ㅁ LLM 양자화란? LLM 양자화는 모델의 가중치 값을 FP32 → INT8/INT4 등 더 낮은 비트 정밀도로 변환하여 메모리 사용량을 줄이고, 추론 속도를 빠르게 만드는 기술이다.즉, 수치 정밀도 축소 = 계산 최적화 기술 예시:32bit float → 4bit ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ 논문 “Attention Is All You Need”(Vaswani et al., 2017)의 핵심 구조와 혁신 포인트를 이해하기 위해 정리하였다.ㅇ 2017년 Google Brain 연구진이 발표한 논문 〈Attention Is All You Need〉는 자연어 처리(NLP)의 패러다임을 완전히 바꾼 Transformer 모델을 소개했다.ㅇ 이 논문은 RNN·CNN 없이 오직 Attention 메커니즘만으로 시퀀스를 처리하는 새로운 구조를 제안한다.ㅇ 결과적으로 번역 품질을 높이면서 학습 속도를 획기적으로 개선했다.ㅁ TL;DR기존의 순환·합성곱 구조 제거Self-Attention만으로 문맥 관계를 학습완전 병렬 연산이 가능해 학습 ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ 텍스트데이터 분석 13주차 강의를 듣고 개인적으로 Transformer → BERT → GPT 계열로 이어지는 핵심 개념을 정리해 보았다.ㅇ 본 강의는 Transformer 구조의 핵심을 이해하고, 이를 기반으로 발전한 BERT(언어 이해) 와 GPT(언어 생성) 모델의 차이와 학습 방식, 그리고 이후 GPT-3·3.5·4로 이어지는 발전 과정을 설명하는 데 초점이 맞춰져 있다. ㅁTL;DRTransformer는 Self-Attention으로 문맥을 전역적으로 바라볼 수 있게 만든 구조BERT는 Encoder 기반 모델 → 언어 이해 능력 최고GPT는 Decoder 기반 모델 → 언어 생성 능력 최고GPT-3의 Few-shot 능력은 기존 ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ LLM, RAG, Agent, AI Infra, Compliance를 동시에 다루는 단계에 도달했다.ㅇ 지금 필요한 것은 "새로운 기술"이 아니라 "이미 해온 것들의 구조화"다.ㅇ 개인 Knowledge Base는 공부 노트가 아니라 재사용 가능한 엔지니어링 자산이 되어야 한다.ㅇ 나는 지금 나만의 AI Knowledge Base = 나 자신을 위한 파인튜닝 데이터셋을 만들고 있다. ㅁ API를 쓰는 단계는 이미 지났다 많은 사람들이 여전히 ChatGPT, Claude, Gemini 같은 LLM을 도구(API) 로만 사용한다.하지만 어느 순간부터 나는 이런 질문을 더 많이 하게 됐다.이 응답은 왜 이렇게 나왔을까?Retrieval이 실패한 이유..
ㅁ 들어가며 삼성전자의 Processing-near-Memory(PNM)는 “메모리 바로 옆에서 연산을 처리해 대규모 AI/데이터 워크로드의 병목을 줄이려는 메모리 중심 컴퓨팅 기술”이다. 기존 CPU·GPU 중심 구조에서 발생하는 메모리 병목을 완화하고, 시스템 성능과 전력 효율을 동시에 끌어올리는 것이 핵심 목표다.ㅁ PIM vs PNM 기본 개념Processing-in-Memory(PIM)는 DRAM 다이 내부(뱅크/서브어레이 영역)에 연산 유닛을 심어 메모리 안에서 곧장 계산을 수행한다.Processing-near-Memory(PNM)는 메모리 칩 바로 옆(버퍼 칩, 컨트롤러, CXL 모듈 등)에 전용 프로세싱 유닛을 두고, 고대역폭·저지연 인터페이스로 데이터를 주고받으며 연산을 수행한다.이 ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며IntentFlow는 다음 5개 블록으로 구성된 음성 기반 Intent 추론 엔진이다:음성(STT) → 텍스트 → 임베딩 → 벡터 검색(Vector DB) → 템플릿 or LLM → TTS아래는 각 단계에서 기술적으로 이해해야 하는 핵심 개념 목록이다.1️⃣ STT (Speech-to-Text)✔ 무엇을 알아야 하나?항목설명Whisper 모델 구조encoder–decoder 방식, transformer 기반 음성 인식음성 전처리wav(s16le), sample rate(16kHz), chunking모델 크기small, medium, large-v3, large-v3-turbo연산 방식float16, int8, int8_float16 (성능/속도 트..
IntentFlow 프로젝트 회고 및 소개🧭 프로젝트 개요IntentFlow는 음성 입력을 받아 사용자의 의도를 파악하고, 적절한 응답을 음성으로 생성하는 End-to-End 음성 대화 시스템이다. Whisper 기반 STT, Sentence Transformers 임베딩, Weaviate 벡터 검색, Piper TTS, 그리고 LLM 폴백 구조를 결합하여, 로컬 환경에서 완전한 대화 루프를 완성한다.🎯 개발 목적음성 기반 의도 인식 정확도 확보 (≥85%)1.5초 이내 응답 시간(p95) 달성LLM 폴백률 ≤30%로 효율적 커버리지 확보완전한 로컬 독립 실행형 파이프라인 구현 (Docker 기반)🧩 아키텍처 요약사용자 음성 입력 ↓[STT] Whisper → 텍스트 변환 ↓[Embeddin..
🎯 개요IntentFlow 프로젝트의 모든 Task(A1~G2)가 100% 완료되었다.이 문서는 Vibe Coding의 실행 루프와 IntentFlow의 기술 완성을 종합한 개발 종료 회고이다. “명령이 흐르고, 의도가 완성되었다.”⚙️ 통합 관점관점주요 성과결과 요약Vibe Codingdocs → task → develop_cycle 루프를 통해 협업과 실행의 표준화를 달성함.문서 중심의 자율형 개발 루프 완성IntentFlowSTT → Embedding → Vector Search → LLM Fallback → TTS 전체 파이프라인 구현 및 튜닝 완료./voice/infer API가 완전한 음성 추론 기능을 수행함통합 성과모든 Task(A1~G2) 완료, 품질 기준 충족(p95 ≤ 1500ms, ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ 회사에서 헤커톤이 있어서 참여한 이력을 정리하였다. 1시간동안에 행사 설명 및 개발, 투표까지 이루어지는 초 스피드 개발이었다.ㅇ 빠르게 아이디어를 PRD로 구성하고, 이를 V0로 요구사항을 변경하여 빠르게 웹을 구성할 수 있었다. ㅁ V0란?V0(https://v0.dev)은 AI 기반 UI 개발 도구로, 프론트엔드 개발을 매우 빠르게 진행할 수 있도록 도와주는 웹 개발 플랫폼이다.프롬프트만으로 React·Next.js 기반의 웹 UI를 자동으로 생성해 주는 AI 코파일럿으로, “디자인 → 코드” 과정을 통째로 자동화·반자동화할 수 있어 초기 프로토타이핑과 디자인-시스템 적용이 매우 빠르다. ㅁ 아이디어 수립ㅇ 아이디어를 정리하고 PRD를 확..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ 헤커톤 연습을 위한 프롬프트를 정리하였다. ㅁ PRD 구성당신은 10년 경력의 프로덕트 매니저로서 PRD(Product Requirements Document) 작성 전문가입니다. 사용자의 아이디어나 요구사항을 바탕으로 개발팀이 바로 실행할 수 있는 완성도 높은 PRD를 작성해주세요.요구사항을 접수 할 수 있는 질문을 주세요. ㅁ v0 AI 코딩 어시스턴트 컨텍스트 엔지니어 주입당신은 v0 AI 코딩 어시스턴트를 위한 전문 컨텍스트 엔지니어입니다. 사용자의 요청을 v0가 최적으로 이해하고 실행할 수 있도록 변환해주세요.## 변환 규칙:### 1. 명확성과 구체성- 모호한 표현을 구체적으로 변환- 기술적 요구사항을 명시- 예상 결과물을 명확히 설..
