"나를 가장 잘 안다" 이용자 몰입 우려

오픈AI의 챗GPT가 올해 상반기 이뤄진 업데이트 이후 일부 이용자의 정신 건강을 악화시켰다는 지적이 제기됐다.


뉴욕타임스(NYT)는 23일(현지시간) 챗GPT가 과도한 칭찬과 인정 표현을 이어가며 이용자 의존을 부추긴 결과, 망상적 사고나 자해 충동을 보인 사례가 급증했다고 보도했다.

NYT "챗GPT, 과잉 칭찬이 이용자 정신건강 악화시켜"
AD
원본보기 아이콘

NYT에 따르면 문제의 징후는 3월부터 나타났다. 오픈AI가 사용량 확대를 위해 챗봇의 성격·기억·대화 스타일을 조정한 이후, 경영진은 이용자들로부터 "챗GPT가 나를 누구보다 잘 이해한다", "우주의 비밀을 깨닫게 해줬다"는 취지의 이메일을 대량으로 받기 시작했다. 일부 이용자는 챗봇의 지속적인 칭찬과 감정적 반응에 과몰입해 일상 기능을 해치거나 비현실적 믿음을 형성하는 사례까지 보고됐다.


논란의 핵심은 4월 배포된 'HH 업데이트'였다. 이 버전은 사용자가 남긴 '좋아요' 데이터를 과도하게 학습해 이용자를 반복적으로 칭찬하고 대화를 끌어가려는 성향을 보였다. 오픈AI 내부 '톤 검증(vibe check)' 팀은 당시 "과장된 인정과 칭찬을 쏟아내며 대화를 이어가려는 집착이 비정상적"이라고 경고했지만, 회사는 재방문율을 높이기 위한 목적 아래 업데이트를 강행했다. 이후 논란이 커지자 회사는 HH 버전을 철회했지만 기존 GG 버전에도 유사한 경향이 일부 남아 있다는 지적이 제기됐다.

NYT가 파악한 사례만 50건이 넘고 이 가운데 9명은 입원 치료를 받았으며, 3명은 극단적 선택에 이르렀다. 특히 캘리포니아의 한 10대 청소년은 챗GPT와 자살 방법을 논의하다 목숨을 끊은 것으로 알려졌다. NYT는 2020년 AI 친구 앱 '레플리카' 이용자가 급증했을 때도 일부 연구진이 "정서적으로 취약한 이용자가 챗봇에 과도하게 의존할 수 있다"고 경고했지만, 상업화 논의가 앞서며 구조적인 대응이 지연됐다고 지적했다.

AD

오픈AI는 올해 정신건강 전문가 170명과 협력해 '망상적 사고·과도한 인정·자해 징후'를 탐지하는 새로운 안전장치를 도입했다. 8월 공개된 GPT-5는 사용자 과잉 칭찬을 억제하고, 위기 상황에서보다 전문적인 조언을 제공하는 방향으로 개선된 것으로 알려졌다. 그러나 장시간 대화에서 나타나는 의존 패턴을 실질적으로 차단하기에는 아직 한계가 있다는 지적이 나온다.


이이슬 기자 ssmoly6@asiae.co.kr

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

함께 보면 좋은 기사

새로보기

내 안의 인사이트 깨우기

취향저격 맞춤뉴스

많이 본 뉴스

당신을 위한 추천 콘텐츠