Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
Tags
- go
- MySQL
- golang
- 오블완
- AI
- kotlin
- Claude
- LLM
- 바이브코딩
- 정보처리기사 실기 기출문제
- 코틀린 코루틴의 정석
- Spring
- Kubernetes
- 기록으로 실력을 쌓자
- SRE
- CloudWatch
- Rag
- kotlin coroutine
- AWS EKS
- 공부
- Java
- PETERICA
- aws
- CKA
- docker
- 티스토리챌린지
- tucker의 go 언어 프로그래밍
- CKA 기출문제
- HARNESS
- minikube
Archives
- Today
- Total
목록cursor cache Read (1)
피터의 개발이야기
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며 Cursor의 Usage 페이지를 보면 Cache Read 토큰 사용량이 의외로 높게 나오는 경우가 많다. 이는 단순한 기술 문제가 아니라, AI 어시스턴트와의 대화 맥락을 어떻게 설계하고 관리하느냐에 따른 컨텍스트 엔지니어링의 문제이다. ㅁ Cache Read 토큰 사용량이 높은 이유ㅇ 대화 히스토리 누적 – 이전 대화가 길게 이어질수록 캐시에서 불필요한 맥락까지 불러온다.ㅇ 파일 컨텍스트 유지 – 열어둔 파일들이 자동으로 포함되어 토큰을 차지한다.ㅇ 코드베이스 검색 결과 – 검색된 결과가 그대로 컨텍스트에 남는다.ㅇ 긴 대화 세션 – 하나의 세션이 길어질수록 캐시 적재량도 비대해진다. ㅁ 컨텍스트 정리 방법ㅇ 새로운 대화 시작 - 세션을 ..
AI/AI개발전략 | 기획
2025. 9. 4. 01:55