| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
- 티스토리챌린지
- 오블완
- golang
- 기록으로 실력을 쌓자
- aws
- 바이브코딩
- Kubernetes
- PETERICA
- minikube
- Java
- HARNESS
- LLM
- kotlin coroutine
- go
- Spring
- 정보처리기사 실기 기출문제
- Rag
- Claude
- AWS EKS
- MySQL
- docker
- 공부
- SRE
- CloudWatch
- kotlin
- CKA 기출문제
- CKA
- tucker의 go 언어 프로그래밍
- AI
- 코틀린 코루틴의 정석
- Today
- Total
목록2025/12 (16)
피터의 개발이야기
ㅁ 들어가며 PostgreSQL을 사용하면서 cached plan must not change result type 에러를 마주했다면,이는 단순한 JDBC 오류가 아니라 PostgreSQL과 JDBC 드라이버가 사용하는 캐싱 전략을 이해하지 못해 발생하는 문제다.이번 글에서는 내가 몰랐던 PostgreSQL과 pgjdbc의 캐싱 기능을 중심으로, 캐싱의 목적, 작동 방식, 그리고 대표적인 에러와 원인을 간단히 정리한다. update.... 나중에 새롭게 안 사실인데 실제 오류 상황은 Select가 아닌 insert와 update 상황에서 발생하였다. 하단에 보충하여 정리하였다. ㅁ PostgreSQL과 JDBC의 캐싱은 무엇을 위한 것인가ㅇ 캐싱의 목적은 디스크 I/O와 쿼리 준비 비용을 줄여 성능..
ㅁ 고환율·고물가 국면에 대한 나의 정리 최근 고환율과 인플레이션을 둘러싼 논의를 보다 보면, 한국 경제를 “위기냐, 아니냐”의 이분법으로만 보는 시각이 여전히 많다. 이 글에서는 그런 단순한 위기론보다는, 한국 경제의 자산·부채 구조와 환율 환경을 같이 놓고 보고, 그 안에서 가계 입장에서 어떤 재무 전략이 필요한지 정리해 보고자 한다. 오건영님의 강연을 보고 작성한 글이다. ㅁ 한국은 순자산은 크지만, 레버리지가 높은 구조 한국은 국민 순자산(국가대차대조표 기준)이 여전히 매우 큰 나라이고, 특히 가계 순자산은 사상 최고 수준을 여러 차례 경신해 왔다. 다시 말해 “국부·순자산 레벨은 높은 나라”라는 인식 자체는 틀리지 않다. 동시에 가계부채가 국내총생산(GDP)의 90% 안팎, 한때는 100%를..
ㅁ 들어가며 백엔드 시스템을 운영하다 보면 자연스럽게 Redis, RabbitMQ, Kafka를 접하게 된다.처음에는 모두 비슷해 보이지만, 실제로는 서로 다른 시대적 문제를 해결하기 위해 탄생한 기술이다.이 글에서는 기술 스펙 중심의 비교가 아니라, “왜 이 기술이 필요해졌는가?” 라는 질문을 중심으로, 웹 서비스 트래픽의 성장 흐름에 따라 Redis → RabbitMQ → Kafka가 어떻게 등장했는지를 정리해본다. ㅁ 단일 서버 시대 – 모든 것은 WAS 안에 있었다초기의 웹 서비스는 비교적 단순했다.단일 WAS (예: Tomcat)동기 처리 기반사용자 세션은 WAS 메모리에 저장이 시기에는 서버 한 대가 모든 요청을 처리했기 때문에,세션을 메모리에 두는 것도 큰 문제가 되지 않았다.하지만 이 ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ QAT(Quantization-Aware Training)는 모델을 학습할 때부터 양자화 효과를 미리 반영하여INT8, INT4 같은 저비트 연산을 해도 정확도가 크게 떨어지지 않도록 만드는 기술이다.즉,“학습 중에 양자화를 시뮬레이션하여, 모델이 스스로 양자화 환경에 적응하도록 만드는 방식” 이라고 이해하면 정확하다.ㅁ 왜 양자화에서 정확도가 떨어지는가?일반적인 Post-Training Quantization(PTQ)은 모델 학습이 끝난 후 FP32 → INT8/INT4 로 변환한다. 하지만 문제는:INT8/INT4는 표현할 수 있는 값의 범위가 작다가중치/활성값이 정밀도를 잃고 깎인다(clipping, rounding)LLM에서는 atten..
[AI] Peterica의 AI공부와 비젼 정리 ㅁ 들어가며ㅇ LLM 시대, 왜 다시 ‘온톨로지’인가? 온톨로지⋅지식그래프로 구조화하는 AI 전환 전략 세미나에서 들은 내용을 정리하였다. 온톨로지는 대규모 언어 모델(LLM)과 결합되며 다시 주목받고 있는데, 이는 단순한 기술 유행이 아니라 AI를 더 정확하고, 설명 가능하며, 신뢰할 수 있는 방향으로 발전시키기 위한 필수 과정으로 받아들여지고 있다. 최근 세미나 「온톨로지·지식그래프로 구조화하는 AI 전환 전략」에서는 이 변화가 왜 중요한지, 그리고 실제 AI 시스템에서 어떻게 활용될 수 있는지에 대해 구체적인 방향을 제시했다. 이 글에서는 온톨로지가 무엇이고 왜 필요한지, 그리고 LLM 시대에 어떤 가치를 만들어 내는지를 정리해 본다. ㅁ 온톨..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며AI 모델의 스케일링 한계, Test-Time Revolution, 그리고 강화학습의 재해석최근 생성형 AI가 빠르게 발전하면서 LLM의 활용이 실무 전반에 깊숙이 들어오고 있다.하지만 이 과정에서 우리가 당연하게 믿고 있던 몇 가지 전제가 무너지고 있다.모델 성능은 Compute(연산량)에 비례한다모델을 키우면 성능도 계속 상승한다LLM 능력 향상의 핵심은 Training-time 에 있다강화학습(RL)은 LLM을 획기적으로 똑똑하게 만든다이번 세미나는 이 믿음들을 다시 들여다보고,AI 모델을 실무에서 실제로 “잘” 활용하기 위해 이해해야 할 핵심 변화들을 짚어준다. ㅁ Train-Time Scaling의 시대는 끝나가고 있다LLM 발전의 첫 번..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며폰 노이만 한계를 넘어서는 NPU·PIM·PNM 기반 차세대 AI 컴퓨팅의 방향성에 대해서 고민하게 되었다.최근 2~3년 동안 LLM 성능은 폭발적으로 성장했다. 하지만 그 이면에서는 하나의 질문이 커지고 있다.“지금의 GPU 중심 컴퓨팅 구조로는 더 이상 LLM을 확장할 수 없지 않은가?”LLM 추론의 병목은 더 이상 FLOPs(Floating Point Operations per second, 초당 수행 가능한 부동소수점 연산 수)가 아니라 메모리 이동 비용이다. 이 글에서는 미국 최신 연구를 기반으로 AI 특화 컴퓨팅(PIM·PNM·CIM)이 LLM의 미래를 어떻게 바꿀지를 살펴본다. ㅁ 폰 노이만 구조의 한계ㅇ LLM은 “계산”보다 “데이터..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며대형 LLM을 사용하다 보면 “양자화(Quantization)” 라는 용어를 자주 마주치게 된다.또 GPTQ, AWQ, GGUF, BNB(4bit/8bit 로딩) 등 다양한 방식이 존재하며,FP32·FP16·INT8·INT4 같은 비트 수도 함께 등장한다.이 글에서는 각 양자화 방식의 차이와비트 수와 메모리 관계를 가장 실질적인 관점에서 정리한다. ㅁ Quantization(양자화)란? Quantization(양자화)라는 용어의 본질적인 의미 자체가 “연속적인 값을 이산화(discretize)한다”는 것이다.그래서 컴퓨터 비전, 신호 처리, 음성 코덱, 이미지 압축, 뉴럴넷 등 분야를 막론하고 연속적(continuous) 값을 유한한 정수 집합(d..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며 오늘 회사 동료와 LLM 양자화에 대해 이야기하던 중, 나도 모르게 벡터 양자화(Vector Quantization) 개념을 섞어서 설명하고 있었다. 두 기술은 모두 "연속적인 값을 이산화(discretize)한다"는 공통점이 있어서 자연스럽게 비슷한 것으로 느껴지지만, 실제로는 목적도, 적용 대상도, 결과도 완전히 다르다. 정확한 이해를 위해 두 개념을 비교 분석하며 정리한다. ㅁ LLM 양자화란? LLM 양자화는 모델의 가중치 값을 FP32 → INT8/INT4 등 더 낮은 비트 정밀도로 변환하여 메모리 사용량을 줄이고, 추론 속도를 빠르게 만드는 기술이다.즉, 수치 정밀도 축소 = 계산 최적화 기술 예시:32bit float → 4bit ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ 논문 “Attention Is All You Need”(Vaswani et al., 2017)의 핵심 구조와 혁신 포인트를 이해하기 위해 정리하였다.ㅇ 2017년 Google Brain 연구진이 발표한 논문 〈Attention Is All You Need〉는 자연어 처리(NLP)의 패러다임을 완전히 바꾼 Transformer 모델을 소개했다.ㅇ 이 논문은 RNN·CNN 없이 오직 Attention 메커니즘만으로 시퀀스를 처리하는 새로운 구조를 제안한다.ㅇ 결과적으로 번역 품질을 높이면서 학습 속도를 획기적으로 개선했다.ㅁ TL;DR기존의 순환·합성곱 구조 제거Self-Attention만으로 문맥 관계를 학습완전 병렬 연산이 가능해 학습 ..
