챗GPT 할루시네이션 사례 및 해결 방법 (챗GPT 사용자 필독)

챗GPT 무료 버전 및 유료 버전을 막론하고 많은 사용자 분들이 챗GPT 거짓말을 경험해보셨을 것입니다. 이를 AI 할루시네이션 현상이라고 부르는데 최근 생성형 AI에서 발생하는 정확한 할루시네이션 뜻 의미와 챗GPT 할루시네이션 사례를 알아보고 할루시네이션 해결 방법을 알아보겠습니다.

할루시네이션 뜻

할루시네이션 뜻
구글 바드, 챗GPT, 빙 챗에서 심심치않게 볼 수 있는 할루시네이션 현상

사전적 의미로 환상을 뜻하는 할루시네이션 뜻은 최근 인공지능 AI 기술 분야에서 인공지능이 잘못된 정보나 무의미한 정보를 생성해 인간에게 일종의 착각을 불러일으키는 것을 의미합니다. 특히 챗GPT 같이 대형언어모델(LLM : Large Language Models) 알고리즘을 사용하는 현재 생성형 인공지능 서비스들은 참인지 거짓인지 명백하게 판별하는 문제에는 취약한 모습을 드러내고 있는데 이로 인해 사용자(인간)들은 자칫하면 잘못된 정보를 진실로 믿게 되는 착각이나 환각에 빠질 수 있는 할루시네이션 상태를 경험하게 되는 것입니다. 쉽게 말해 가끔 챗GPT가 터무니없는 거짓말을 마치 그럴듯하게 포장하여 진실처럼 이야기해 혼란을 일으키는 것이라고 보시면 이해하기 쉬우실 겁니다.

대형 언어 모델이란? : 대형 언어 모델 알고리즘은 방대한 양의 텍스트 데이터를 학습한 인공지능으로, 챗GPT, 뤼튼, 구글 바드, 네이버 클로바 등 인간이 쓰는 언어를 이해하고 대화하며 우리에게 답변을 줄 수 있는 생성형 AI를 이야기합니다.

할루시네이션 현상 사례

1. 역사적 사실 왜곡

가장 대표적인 인공지능 할루시네이션 사실 왜곡 현상은 2023년 구글 인공지능 ‘바드’ 공개 현장에서 발생하며 전 세계인들에게 충격을 주었습니다. 구글 바드는 제임스 웹 우주 망원경이 외계 행성의 사진을 최초로 2004년에 촬영했다고 말하였지만, 이 답변은 진실과 거짓이 교묘히 섞여 있는 답이었습니다. 제임스 웹 우주 망원경이 최초로 외계 행성을 촬영한 것은 맞지만 촬영 일자는 2022년이고 제미니가 말한 2004년엔 제임스 웹 망원경이 발사되지도 않았기 때문에 이런 사실을 잘 모르는 대중들은 충분히 오해할 수 있었으며, 이런 AI 할루미네이션 현상이 현존하는 인공지능 대기업 구글 바드에서 발생했다는 것에 많은 이들이 충격을 받아 실제로 구글 주가에 영향을 미치기까지 하였습니다.

2. 법률 판례 조작

챗GPT 거짓말 사례로 법정에 선 Steven A. Schwartz 변호사
2023년 챗GPT로 만든 법원 서류로 인해 벌금형을 받은 Steven A. Schwartz 변호사의 모

2023년 뉴욕의 Steven A. Schwartz 변호사는 챗GPT를 이용해 법원에 제출할 법률 문서를 작성했습니다. 그런데 문제는 이 법률 문서에 사용된 법원 사례가 허위로 위조된 사례를 챗GPT가 인용하면서 발생하였고 해당 변호사와 그의 로펌은 법원으로부터 5,000달러에 달하는 벌금을 부과 받게 됩니다. 이처럼 챗GPT 거짓말은 법률 사례 뿐 아니라 일반 사용자들의 사례에서도 챗GPT 오류를 자주 발견하는데, 챗GPT 이용하는 대부분은 사용자가 잘 알지 못하는 분야에 대한 지식을 얻기 위해 사용하는 것을 고려하였을 때 허구를 마치 그럴듯하게 포장하여 진실로 착각하게 만드는 AI 할루시네이션 심각한 사례 중 하나입니다.

3. 가짜 뉴스 생성

챗GPT 할루시네이션 사례
챗GPT 거짓말에 대해 되묻자, 잘못을 바로 시인해버리는 모습 (사실을 잘 알지 못하면 할루시네이션 현상에 빠지기 쉽상이다.)

2024년 이스라엘, 하마스 전쟁 속에서 영국의 블룸버그 기자 중 한 명이 구글  바드와 빙 챗(Bing Chat)에 대해 이스라엘, 하마스 교전 및 전쟁에 대한 주제를 가진 기사 작성을 테스트하였습니다. 흥미로운 점은 두 대형 언어 모델(LLM) AI 서비스를 제공하는 회사가 다름에도 불구하고 두 AI 서비스 모두 2023년 5월 이스라엘과 하마스 전쟁은 휴전이 선언되었다는 거짓 뉴스를 생성하였고 기자의 연이은 질문에 결국 구글 바드는 오류를 인정하며 이전 답변에 대해 사과한다는 메시지를 남겼습니다. 이처럼 아직 AI는 인간에게 불확실한 정보 아니 오히려 거짓 정보를 제공하고 AI 거짓말이 들통날 때까지 거짓말을 이어가는 할루시네이션 현상을 일으키고 있습니다.

원인

1. 저품질 데이터 학습 및 훈련 부족

챗GPT 원리
기본적으로 인간이 직접 훈련 시켜야 하는 생성형 AI 원리

기본적으로 할루시네이션을 발생시키는 대형 언어 모델 AI들은 방대한 양의 데이터를 입력해주면 이 데이터들을 학습 훈련하여 사용자가 입력한 질문에 대해 분석하고 다음에 올 단어를 예측하여 학습된 답변을 내놓게 되는데, 입력한 데이터양이 너무 적거나 인간에 의해 제대로 된 필터링 되지 못한 저품질 데이터를 입력시켜둔 대형 언어 모델 AI들은 애초에 잘못된 답을 내놓을 수밖에 없기 때문에 챗GPT, 구글, 네이버, 빙(마이크로소프트) 같은 대기업이 제공하는 서비스가 그나마 신뢰도가 높을 수밖에 없습니다. 방대한 분야의 고품질 데이터를 필터링하고 계속해서 AI 학습을 시키는 것 자체가 막대한 비용과 인력이 들 수밖에 없기 때문입니다.

2. 과적합 문제

특정 AI 제공 업체는 방대한 분야의 대규모 데이터를 모두 학습시킬 수 없으므로 특정 분야에 특화된 대형 언어 모델 AI를 개발하는 경우가 많습니다. 이런 경우 AI는 익숙해진 데이터 패턴을 벗어난 질문, 예를 들어 의료 관련 AI에게 부동산 계약에 대한 질문을 던지는 경우처럼 학습된 패턴이 아닌 질문에 대해 엉뚱한 답변을 그럴듯하게 내놓을 확률이 높습니다. 따라서 어떤 목적을 가지고 사용하실 생성형 AI 서비스를 선택해야 할루시네이션 발생 확률이 줄어들 수 있습니다.

3. 모순되거나 모호한 질문 입력

‘강아지는 어느 바다에 살아?’ 같은 사용자의 질문 자체에 오류가 있거나 모순된 부분이 있다면 당연히 엉뚱한 답변이 나올 수밖에 없습니다. 문제는 현재 생성형 AI 서비스 대부분은 이러한 오류를 걸러내지 못하고 모순된 질문에 다시 모순된 답변을 생성하는 할루시네이션을 발생시키는데, 최근 챗GPT는 이런 모순된 질문에 대해 잘못된 점을 지적하는 등 챗GPT 오류가 많이 개선되는 모습을 보이고 있습니다.

할루시네이션 해결 방법

1. 정보 수집을 위주로 시킬 것

챗GPT뿐만 아니라 구글 바드, 네이버 클로바 등 대부분의 대형 언어 모델 AI 서비스들은 미리 입력된 데이터를 기반으로 답변을 내놓습니다. 그러므로 대부분의 답변은 최신화된 정보가 아닐 수 있으며 빙 챗은 이러한 단점을 극복하기 위해 기본적으로 인터넷의 자료들을 실시간으로 수집해 내놓는 방식을 채택하여 사용 중입니다. 이를 고려하여 챗GPT를 쓰실 때도 답변을 바로 요구하기보다는 질문에 대한 답변을 위한 정보를 수집해달라는 형식의 정보 수집을 기본으로 답변하신다면 더욱 신뢰도 높고 최신화된 답변을 얻을 수 있으실 겁니다.

2. 답변 형식 지정하기

챗GPT를 비롯해 대부분의 생성형 AI는 사용자가 답변의 형태를 미리 지정할 수 있습니다. 내가 어떤 일을 하는지, 어떤 형식의 답변을 받을지 등을 미리 사전에 정해서 챗GPT 거짓말 못하게 지정해 명령어를 세팅해두면 챗GPT는 사용자가 어떤 답변 또는 어떤 분야에 대해 궁금한지 학습하고 더욱 신뢰도 높은 답변을 내놓게 됩니다. 답변 형식 명령어를 세팅하는 방법 역시 그리 어렵지 않기 때문에 이 부분 꼭 하셔야 챗GPT 제대로 사용하실 수 있습니다.

3. 반드시 검토할 것

너무 당연한 이야기지만 생성형 AI에 나온 최종 답변은 반드시 사용자 즉, 인간이 개입하여 그 사실에 대한 진위 여부를 확인하는 절차를 거쳐야 합니다. 이는 AI 할루시네이션 방지를 위한 최후의 수단과 같은데 아무리 신뢰도가 높다고 평가받는 인공지능 서비스라고 할지라도 아직은 업무를 보조하는 수단으로 사용하고 만일을 위해 중요한 서류나 작업들은 인간이 개입할 수밖에 없는 것이 현재 상태입니다.

 

How useful was this post?

Click on a star to rate it!

Average rating 5 / 5. Vote count: 100

No votes so far! Be the first to rate this post.

error: Content is protected !!