| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
- Linux
- golang
- 기록으로 실력을 쌓자
- tucker의 go 언어 프로그래밍
- LLM
- 바이브코딩
- aws
- 컨텍스트 엔지니어링
- Kubernetes
- SRE
- 공부
- PETERICA
- AWS EKS
- MySQL
- 코틀린 코루틴의 정석
- CloudWatch
- Java
- minikube
- Spring
- CKA
- 티스토리챌린지
- 오블완
- CKA 기출문제
- go
- kotlin
- kotlin coroutine
- AI
- Pinpoint
- 정보처리기사 실기 기출문제
- APM
- Today
- Total
목록LLM (4)
피터의 개발이야기
ㅁ 들어가며 LLM 공부·실습용으로 한 번 북마크해 두면 두고두고 참고하기 좋은 큐레이션 허브(LLM Engineer Toolkit) 정도로 정리할 수 있을 것 같아. ㅁ 한눈에 보는 LLM 기술 지도LLM 학습·파인튜닝, 앱 개발, RAG, 추론, 서빙, 평가, 모니터링까지 LLM 라이프사이클 전체를 아우르는 120개+ 라이브러리를 카테고리별로 정리해 둔 레포지토리다.어떤 단계에 어떤 도구를 써야 하는지 구조적으로 파악하면서, 필요한 순간에 바로 라이브러리 후보를 찾을 수 있다는 점이 큰 장점이다. ㅁ 카테고리 구조가 잘 짜여 있음LLM Training, Application Development, RAG, Inference, Serving, Data Extraction, Data Generation..
ㅁ 들어가며ㅇ 생성형AI는 새로운 트랜드가 되었다. PC를 통해 인터넷 세상이 열렸고, 스마트 폰으로 막대한 정보화 사회의 확장이 이루어졌다. 생성형AI는 이러한 정보를 검색하는 시대가 아니라 대화를 이해하고 이를 해석하여 원하는 정보를 찾아주는 사회가 도래되었다. 새로운 전환점에서 시대적 변화의 흐름을 이해하고자 AI의 성장과정을 정리해 보았다. ㅁ UX의 변화: AI 전환시대ㅇ 제한적 AI에서 생성형 AI로 ㄴ알파고 - 오직 바둑이라는 사용성에 제한이 있었다.ㅇ 생성형 AI는 정보 탐색, 번역 등 다양한 기능을 할 수 있다.ㅇ 기존 플랫폼에도 AI의 기능이 확장되고 있다. ㄴ 엑셀도 명령프롬프트로 작성이 가능 ㄴ 포토샵도 AI로 그림을 작성할 수 있다. ㅇ 모든 소프트웨어와 플랫폼에 AI의 기능..
ㅁ 들어가며ㅇ 나만의 생성형AI를 구축하는 방법을 공부 중이다.ㅇ 기존 OpenChatGPT는 비용이 발생하고, 개인이나 기업의 정보보호로 인해 업무에 도입하기 어려운 점이 있다.ㅇ 이를 극복하기 위해 로컬에 AI를 구축하여 학습시켜 나만의 생성형AI를 만들고 업무적으로 사용히 가능하다.ㅇ gpt4all을 설치하여 LLM인 Llama 3 8B을 이용하여 로컬 데이터를 학습하는 과정을 정리하였다. ㅁ gpt4all 설치ㅇ GPT4ALL 홈페이지로 이동하여 설치파일을 다운한다. ㅇ 설치 파일을 실행하여 설치 완료. ㅁ GPT4All 실행ㅇ 최초의 GPT화면이다. ㅇ Chats으로 이동하면 새로운 모델을 설치하는 버튼이 있다.ㅇ 한글을 위해 Llama 3 8B Korean Bllossom을 설치하였다. ㅁ ..
ㅁ 들어가며ㅇ [AI] 언어 모델의 병렬처리를 가능하게 한 트렌스포머(Transformer) 기술에 대해서 정리하였다. ㅇ 2017년부터 대규모 언어 모델(Large Language Models, LLM)의 크기가 급격히 증가하는 이유에 대해서 정리해보았다.ㅁ 언어 모델의 진화ㅇ 2017년 Transformer 모델이 등장한 이후, 언어 모델의 크기는 폭발적으로 증가했다. - Transformer (2017): 465M 파라미터 - GPT-3 (2020): 175B 파라미터 (Transformer의 376배) - Switch-C (2021): 1.6T 파라미터 - Wu Dao 2.0 (2021): 1.75T 파라미터 (GPT-3의 10배) - GPT-4(2023): 1.8T 파라미터 (GPT-3..