Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Linux
- tucker의 go 언어 프로그래밍
- aws
- 바이브코딩
- 컨텍스트 엔지니어링
- 오블완
- SRE
- AI
- 티스토리챌린지
- 공부
- Kubernetes
- LLM
- PETERICA
- kotlin coroutine
- go
- kotlin
- minikube
- Pinpoint
- 기록으로 실력을 쌓자
- MySQL
- CKA
- AWS EKS
- Spring
- APM
- 코틀린 코루틴의 정석
- Java
- 정보처리기사 실기 기출문제
- CloudWatch
- CKA 기출문제
- golang
Archives
- Today
- Total
목록claude code (1)
피터의 개발이야기
[AI] Ollama launch + GLM-4.7-Flash로 로컬 Claude Code 실행하기
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며최근 로컬 LLM 환경이 빠르게 진화하고 있다.이제는 단순히 모델을 띄우는 수준을 넘어, 실제 개발 워크플로우 안에 AI 에이전트를 자연스럽게 통합할 수 있는 단계에 들어왔다고 느낀다.이번 글에서는 Claude Code with Anthropic API compatibility의 내용을 보고, Ollama의 신규 기능인 ollama launch와 GLM-4.7-Flash 모델을 활용해,Claude Code를 완전히 로컬 환경에서 실행해 본 과정을 정리해 보려 한다. 목표는 단순하다.“클라우드 API 없이, 내 머신 위에서 Claude Code를 돌린다.” ㅁ Ollama launch가 바꾼 것ㅇ 기존에는 Claude Code를 로컬 모델에 연결하..
AI/AI코딩 | 실습
2026. 1. 28. 22:12
