| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | ||||
| 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| 11 | 12 | 13 | 14 | 15 | 16 | 17 |
| 18 | 19 | 20 | 21 | 22 | 23 | 24 |
| 25 | 26 | 27 | 28 | 29 | 30 | 31 |
- kotlin querydsl
- go
- aws
- Pinpoint
- CKA
- tucker의 go 언어 프로그래밍
- 컨텍스트 엔지니어링
- 티스토리챌린지
- Java
- Linux
- APM
- 바이브코딩
- 오블완
- CloudWatch
- MySQL
- CKA 기출문제
- kotlin coroutine
- AWS EKS
- 정보처리기사 실기 기출문제
- SRE
- Spring
- 기록으로 실력을 쌓자
- golang
- kotlin
- AI
- 공부
- minikube
- 코틀린 코루틴의 정석
- Kubernetes
- PETERICA
- Today
- Total
목록ai study (3)
피터의 개발이야기
[AI] Peterica의 AI공부와 비젼 정리 ㅁ 들어가며ㅇ LLM 시대, 왜 다시 ‘온톨로지’인가? 온톨로지⋅지식그래프로 구조화하는 AI 전환 전략 세미나에서 들은 내용을 정리하였다. 온톨로지는 대규모 언어 모델(LLM)과 결합되며 다시 주목받고 있는데, 이는 단순한 기술 유행이 아니라 AI를 더 정확하고, 설명 가능하며, 신뢰할 수 있는 방향으로 발전시키기 위한 필수 과정으로 받아들여지고 있다. 최근 세미나 「온톨로지·지식그래프로 구조화하는 AI 전환 전략」에서는 이 변화가 왜 중요한지, 그리고 실제 AI 시스템에서 어떻게 활용될 수 있는지에 대해 구체적인 방향을 제시했다. 이 글에서는 온톨로지가 무엇이고 왜 필요한지, 그리고 LLM 시대에 어떤 가치를 만들어 내는지를 정리해 본다. ㅁ 온톨..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ 논문 “Attention Is All You Need”(Vaswani et al., 2017)의 핵심 구조와 혁신 포인트를 이해하기 위해 정리하였다.ㅇ 2017년 Google Brain 연구진이 발표한 논문 〈Attention Is All You Need〉는 자연어 처리(NLP)의 패러다임을 완전히 바꾼 Transformer 모델을 소개했다.ㅇ 이 논문은 RNN·CNN 없이 오직 Attention 메커니즘만으로 시퀀스를 처리하는 새로운 구조를 제안한다.ㅇ 결과적으로 번역 품질을 높이면서 학습 속도를 획기적으로 개선했다.ㅁ TL;DR기존의 순환·합성곱 구조 제거Self-Attention만으로 문맥 관계를 학습완전 병렬 연산이 가능해 학습 ..
[AI] Peterica의 AI공부와 비젼 정리ㅁ 들어가며ㅇ 텍스트데이터 분석 13주차 강의를 듣고 개인적으로 Transformer → BERT → GPT 계열로 이어지는 핵심 개념을 정리해 보았다.ㅇ 본 강의는 Transformer 구조의 핵심을 이해하고, 이를 기반으로 발전한 BERT(언어 이해) 와 GPT(언어 생성) 모델의 차이와 학습 방식, 그리고 이후 GPT-3·3.5·4로 이어지는 발전 과정을 설명하는 데 초점이 맞춰져 있다. ㅁTL;DRTransformer는 Self-Attention으로 문맥을 전역적으로 바라볼 수 있게 만든 구조BERT는 Encoder 기반 모델 → 언어 이해 능력 최고GPT는 Decoder 기반 모델 → 언어 생성 능력 최고GPT-3의 Few-shot 능력은 기존 ..
