GPT는 어떻게 학습되었을까?
💬 “GPT는 누가 가르친 거예요?”
ChatGPT는 마치 모든 걸 아는 것처럼 답을 하죠.
하지만 사실 **누군가가 직접 가르친 것은 아닙니다.**
그렇다면 GPT는 어떻게 이렇게 똑똑해진 걸까요?
✅ GPT의 학습 원리 간단 정리
> GPT는 **인터넷에 있는 수많은 텍스트 데이터를 기반으로
패턴을 학습한 인공지능 모델**입니다.
학습 방식은 다음 두 가지를 거칩니다:
1. **사전 학습 (Pretraining)**
- 뉴스, 책, 위키백과 등 공개된 텍스트 수십억 단어를 분석
- 문장의 흐름, 구조, 단어 조합 패턴을 학습
- 목표: “다음에 올 단어는 무엇일까?”를 예측하는 능력
2. **미세 조정 (Fine-tuning)**
- 실제 사람들의 질문과 답변 예시를 학습
- 더 유용하고 자연스러운 답변을 하도록 조율
- OpenAI 직원들과 사용자 피드백이 반영됨
🔍 GPT가 배우는 방식은 사람과 다릅니다
- GPT는 ‘이해’보다는 ‘패턴 예측’에 더 가까움
- 수학적 계산과 확률을 바탕으로 “다음에 가장 그럴듯한 말”을 선택함
- 따라서 **틀릴 수도 있고, 상식 밖의 답을 할 수도 있음**
→ 이걸 “환각(Hallucination)”이라고 부릅니다 (Day 13에서 자세히 다룸)
✏️ 쉽게 말하면?
> 📘 GPT는 **백만 권의 책을 읽은 로봇**
> 그런데 의미를 아는 건 아니고, **말의 흐름을 따라하는 데 매우 능숙한** 로봇입니다.
💡 마무리
GPT는 우리가 제공한 데이터를 바탕으로
**패턴을 예측**해 가장 그럴듯한 답을 만드는 AI입니다.
완벽하지는 않지만,
그 **규모와 훈련 방식 덕분에 놀라운 성과**를 보여주는 중이죠.
내일은 **프롬프트의 좋은 조건**에 대해 소개할게요!