반응형

💬 “GPT가 틀린 말을 진짜처럼 말한다는데, 이게 뭐예요?”
GPT를 사용하다 보면
“엥? 사실 아닌데?” 싶은 **말도 안 되는 답**을 만날 때가 있죠.
이게 바로 **AI 환각 현상**입니다.
✅ ‘환각’ 현상이란?
> GPT가 실제로는 존재하지 않는 정보를
> **그럴듯한 말투와 문장으로 만들어내는 것**을 말합니다.
- 사람처럼 말하지만, 정보는 가짜
- 완전히 새로운 내용을 ‘진짜처럼’ 꾸며냄
- 인터넷에서 찾을 수 없는 정보일 때도 있음
🔍 왜 이런 현상이 생길까요?
| 이유 | 설명 |
|------|------|
| 🧩 확률 기반 생성 | GPT는 “진짜 정답”이 아닌, 확률상 **그럴듯한 말**을 고름 |
| 📚 데이터 한계 | 훈련 데이터의 불완전성 & 최신성 부족 |
| 🗂️ 과잉 일반화 | 새로운 질문에 대해 “대충 이럴 거야”라고 과잉 예측 |
❌ 환각 사례
```
“2023년 노벨문학상 수상자는 누구야?”
```
→ GPT 답변:
“미국의 시인 존 스미스가 수상했습니다.”
(존 스미스는 실제로 존재하지도 않음)
✏️ GPT에게 더 정확한 답을 받으려면?
- 질문을 구체화 & 명확화하기
- “사실 여부가 중요한 질문은 검색 엔진과 병행”
- 의심스러운 답변은 반드시 검증하기
💡 마무리
GPT의 환각은 AI의 **확률적 한계**입니다.
완벽하진 않지만, 이를 알고 쓰면
**필요한 정보만 뽑아내는 데 더 효과적**입니다.
내일은 **GPT가 문장의 구조를 어떻게 이해하는지** 알려드릴게요!
반응형