Blog logo콜로리 블로그
개발 > 데이터
1년 전

잘 몰라도 용감하게 답변해주는 AI의 근자감, 할루시네이션

Post thumbnailImage

할루시네이션이란?

게임 '스타크래프트' 에서 하이템플러가 자기 자신의 환영을 복제하는 기술을 알고있다면 친숙할 수 있는 단어다.

할루시네이션(hallucination)은 환상이라는 용어는 AI 분야에서 AI가 데이터에 없는 정보를 지어내는 현상을 의미한다.


Chat GPT 가 세상에 알려진지 얼마 되지 않았을 때 유명한 일화가 있다.


질문: 조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘
Chat GPT: 15세기 조선시대 세종대왕이 새로 개발한 훈민정음을 작성하던 중,
문서 작성 중단에 대한 담당자에게 분노하여 맥북프로와 함께 그를 방으로 던진 사건 입니다~~ 블라블라


조선 시대에 맥북이라니.. 당연히 말도 안되는 소리를 뻔뻔하게 사실처럼 답변을 해주어 인터넷에 널리 퍼지고 화제가 되었었다.



왜 이런 현상이 발생할까?

Chat GPT와 같은 AI들은 LLM을 기반으로 만들어졌는데,

LLM은 주어진 문장에서 빈 칸을 때려 맞춰주는 학습 모델이라고 보면 된다.


'사과는 ㅇㅇㅇ'


이란 문장이 주어진다면 AI는 문맥을 파악하여 '맛있다', '비싸다', '둥글다' 등 과 같은 문장을 유추하여 답변해주는 원리인 것이다.


물론 그럼에도 엄청 똑똑하고 훌륭한 연구 결과물이지만

이러한 원리로 인해 본질적인 결함이 발생 할 수 있는 것이다.





해결 방법은?

AI가 할루시네이션으로 인해 엉뚱한 답변을 제공 할 경우에는 피드백을 주어 답변을 개선 시키는 방법이 있다.

그리고 파인 튜닝과 같이 이미 학습된 모델에 특정 데이터를 추가 학습 시켜 고도화 하는 것과 방법들이 있다.


피드백을 주어 개선 시키는 방법과 파인튜닝에 대한 내용은 또 다른 포스팅에서 다루어 보겠다.



#AI#Hallucination