AI의 의견, 모두 믿을 수 있을까? Chat GPT 할루시네이션 (hallucination, 환각)
Chat GPT의 거짓말: GPT 할루시네이션 (hallucination, 환각)
어제, 판교에 대한 관심을 chat GPT에게 질문하고,
그 AI가 생성한 의견을 실은바 있습니다.
그리고 몇분이 그 글에 관심을 보여주셨어요.
그런데 여러분 여기에는 주의가 필요합니다.
사실과 다른 정보도 있을 수 있기에
그것을 가릴 수 있는 능력이 필요합니다.
우리는 GPT를 생성형 AI라고 하는데,
왜 ‘생성 (generation)’이라는 말을 붙이겠어요.
GPT가 학습한 여러정보를 가공하여 새로운 정보로 생성하기 때문입니다.
즉 GPT가 학습한 정보를 넘어서,
새로운 정보를 각색하고 주장하고, 강조하는 등등을 사실을 왜곡할 수 있습니다.
그럼 GPT가 무엇을 학습하였는가?
이것은 결국 인간이 AI에 정보를 제공하며 학습시킨 것이거든요.
그렇다면 어떤 정보를 학습시켰느냐에 따라 GPT의 대응이 다를 것이고요.
또 AI의 큰 특징인 생성 과정에서 마구 마구 팩트와는 다른 것을 생성할 수 있습니다.
예전에는 인간이 여러정보를 검색하고, 그것을 이성적으로 해석하고,
혹시 있을 오류, 최대 5%의 오류 (1종 오류)는 있을수 있는 것으로 받아들입니다.
사실 100% 진실이다를 알아내는 것은 과학으로도 가능하지 않기 때문입니다.
그런데 놀랍게도 이제 인간이 하던 그 해석을 AI가 하는데,
우리가 하는 속도보다 거의 100배, 1000배도 더 빠르게,
새로운 정보를 생성해서 우리에게 제시합니다.
그런데 AI의 능력 수준이 인간의 낼수 있는 의견의 다양성을 더 넘어서,
너무나 확실한 것처럼 그럴싸하게 새로운 정보를 생산한다는 것이지요.
그게 사실이 아닌데, 사실처럼 보이면 그건 큰 문제 아닐까요?
저는 2023년 11월에 Chat GPT를 처음 써보면서,
AI의 능력에 너무 깜짝 놀랐고,
차마 의심조차 할 수 없을 정도 였습니다.
그런데, 하나 하나 따지고 들어가고 사실 여부를 파악하니 거짓이 너무 많았어요.
그래서 다시 한번 깜짝 놀랬고, 개인적으로 ‘GPT의 거짓말’이라고 표현했는데요.
이미 제가 그것을 알아내는 시점에,
관련 학계는 이미 ‘AI 할루시네이션 (hallucination, 환각)’이라는 용어로 사용했네요.
물론 hallucination은 이미 많이 사용하던 단어이지요.
그런데 AI에 hallucination이 사용될지는.. 결과를 목도하면서 알게 된 것이지요.
동아닷컴에는 할루시네이션은 이렇게 표현되었어요.
“할루시네이션은 환각 또는 망상 등으로 불리며,
AI가 생성한 정보에 허위 또는 날조된 정보가 포함되는 현상이다.
할루시네이션은 실제 사실과 AI를 거친 정보가
다른 내재성 환각과
실제로 존재하지 않는 사실을 창작해서 제공하는 외재적 환각으로 나뉜다.
챗GPT에 질문을 했는데 역사적 사실을 왜곡하거나,
이미지 생성 시 현실 법칙에 위배된 이미지 등을 제공하는게
할루시네이션의 영향이다” (동아닷컴. 2024-03-29)
하지만 다음의 연구를 바탕으로 볼때,
학자들마다 AI hallucination의 의미가 완전히 일치 되지 않는 것 같네요.
아마 인간의 고민이 더욱 투입되어야 할 듯 합니다.
"대규모 언어 모델이 인공 지능(AI)에서 계속 발전함에 따라 텍스트 생성 시스템은 종종 "hallucination (환각)"이라고 불리는 문제가 있는 현상으로 어려움을 겪고 있는 것으로 나타났습니다. 그러나 의학을 포함한 다양한 분야에서 AI가 점점 더 많이 사용되면서 이 용어 자체의 사용에 대한 우려가 제기되었습니다. 이 연구에서 우리는 14개 데이터베이스에서 "AI 환각"을 정의하는 논문을 식별하기 위해 체계적인 검토를 수행했습니다. 우리의 결과는 용어 사용 방식에 일관성이 없음을 강조하지만 문헌에서 여러 대체 용어를 식별하는 데 도움이 됩니다. 우리는 이러한 결과의 의미를 논의하고 여러 영역에 상당한 영향을 미칠 수 있는 이 중요한 현대 AI 문제에 일관성을 가져오기 위한 보다 통합된 노력을 촉구합니다" (Maleki et al., 2024).
참고:
남시현, 동아닷컴. 2014년 3월 29일 게재, 2024년 10월 9일 검색, https://www.donga.com/news/It/article/all/20240329/124227094/1
Maleki, N., Padmanabhan, B., & Dutta, K. (2024, June). AI hallucinations: a misnomer worth clarifying. In 2024 IEEE Conference on Artificial Intelligence (CAI) (pp. 133-138). IEEE.