Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | ||||
| 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| 11 | 12 | 13 | 14 | 15 | 16 | 17 |
| 18 | 19 | 20 | 21 | 22 | 23 | 24 |
| 25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- AWS EKS
- APM
- tucker의 go 언어 프로그래밍
- 공부
- kotlin querydsl
- 코틀린 코루틴의 정석
- aws
- kotlin
- AI
- CKA 기출문제
- SRE
- kotlin coroutine
- Pinpoint
- CKA
- golang
- 오블완
- CloudWatch
- 기록으로 실력을 쌓자
- 바이브코딩
- Spring
- Java
- 티스토리챌린지
- PETERICA
- go
- Kubernetes
- MySQL
- Linux
- minikube
- 정보처리기사 실기 기출문제
- 컨텍스트 엔지니어링
Archives
- Today
- Total
목록Qat (1)
피터의 개발이야기
[AI] QAT(Quantization-Aware Training) — 양자화를 가장 똑똑하게 하는 방법
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ QAT(Quantization-Aware Training)는 모델을 학습할 때부터 양자화 효과를 미리 반영하여INT8, INT4 같은 저비트 연산을 해도 정확도가 크게 떨어지지 않도록 만드는 기술이다.즉,“학습 중에 양자화를 시뮬레이션하여, 모델이 스스로 양자화 환경에 적응하도록 만드는 방식” 이라고 이해하면 정확하다.ㅁ 왜 양자화에서 정확도가 떨어지는가?일반적인 Post-Training Quantization(PTQ)은 모델 학습이 끝난 후 FP32 → INT8/INT4 로 변환한다. 하지만 문제는:INT8/INT4는 표현할 수 있는 값의 범위가 작다가중치/활성값이 정밀도를 잃고 깎인다(clipping, rounding)LLM에서는 atten..
AI/AI이론 | 공부
2025. 12. 12. 10:17
