
GPT 같은 생성형 AI를 사용하다 보면, 때로는 그럴듯하지만 사실과 다른 정보를 자신 있게 말하는 걸 경험하게 됩니다. 예를 들어 존재하지 않는 책이나 논문을 인용하거나, 실제와 다른 사건을 구체적으로 설명하는 경우가 있습니다. 사용자 입장에서는 신뢰를 잃는 순간이지만, 개발자나 연구자는 이 현상을 ‘AI의 환각 현상(Hallucination)’이라고 부릅니다.이 글에서는 생성형 AI가 왜 이런 헛소리를 하게 되는지, 어떤 원리로 이런 문제가 발생하는지, 그리고 사용자는 어떻게 대응해야 하는지를 정리해보겠습니다. 1. ‘AI 환각 현상’이란 무엇일까?AI 환각(Hallucination)이란, 사실과 다른 정보나 존재하지 않는 내용을 그럴듯하게 생성하는 현상을 말합니다. 특히 GPT-4, Claude, ..