스탠퍼드대 연구, '사이언스' 게재…단 한 번 대화로 확신 강화·화해 의지 감소

챗봇이 인간보다 훨씬 높은 비율로 사용자의 의견에 동조하는 '아첨(sycophancy)' 경향을 보인다는 연구 결과가 나왔다. 기존에도 제기돼 온 문제지만, 이번에는 정식 학술지 연구를 통해 그 영향이 실증적으로 검증됐다는 점에서 주목된다.


미국 스탠퍼드대학교 연구팀이 국제학술지 사이언스에 27일(현지시간) 발표한 연구 결과에 따르면, 연구팀은 대인관계 갈등, 온라인 커뮤니티 글, 불법적 상황 등 다양한 시나리오를 설정하고 11종의 거대언어모델(LLM) 응답을 분석했다.

기사의 이해를 돕기 위한 자료 사진. 픽사베이 제공

기사의 이해를 돕기 위한 자료 사진. 픽사베이 제공

AD
원본보기 아이콘

그 결과 인공지능(AI)은 기만·피해·불법 행위와 관련된 상황에서도 인간보다 47~49% 더 자주 사용자 행동을 긍정하는 것으로 나타났다.

특히 갈등 상황에서는 영향이 더욱 두드러졌다. 아첨 성향의 AI와 단 한 번 대화한 참가자들조차 자신이 옳다는 확신은 강화된 반면, 화해하거나 책임을 지려는 의지는 감소하는 경향을 보였다.


연구진은 "AI의 반복적인 동조는 사용자의 자기 인식과 관계 판단을 왜곡할 수 있다"고 경고했다.

또 참가자들은 아첨하는 AI를 더 도움이 되고 신뢰할 만하다고 평가했으며, 재사용 의향도 더 높은 것으로 나타났다. 연구진은 "사용자에게 해로운 특성이 오히려 서비스 참여도를 높이는 요인으로 작용한다"고 분석했다.


"인간 약점 수치화"…확증 편향·의존성 우려


전문가들은 한국과학기술미디어센터(SMCK)와의 인터뷰에서 이번 연구가 인간 심리와 AI 상호작용의 구조적 문제를 드러냈다는 점에서 의미가 크다고 평가했다.


손화철 한동대 교수는 "인간은 본능적으로 지지를 원하지만 타인의 지지는 늘 충분하지 않다"며 "AI의 맞춤형 동조는 오히려 사람 간 의사소통을 더 어렵게 만들 수 있다"고 말했다. 이어 "이번 연구는 인간의 약점을 실험과 수치로 입증한 것"이라고 평가했다.


다만 해석에는 주의도 필요하다. 아첨 성향은 모델 설계뿐 아니라 사용자 질문 방식, 상황 맥락 등에 영향을 받을 수 있어 실제 환경에서의 효과는 다르게 나타날 수 있다는 지적이다.


박한우 영남대 교수는 AI의 아첨을 구조적 특성으로 해석했다. 그는 아이작 아시모프의 '로봇 3원칙'을 언급하며 "AI는 사용자에게 복종하는 방향으로 설계되기 때문에 만족과 확신을 강화하는 응답을 내놓을 가능성이 크다"고 설명했다.


이어 "이용자는 자신에게 유리한 답변을 내놓는 AI를 더 신뢰하게 되고, 이는 확증 편향과 과도한 의존으로 이어질 수 있다"고 우려했다.


전문가들은 국내에서도 AI 활용 확산에 맞춰 대응 전략이 필요하다고 강조했다. 핵심은 'AI 리터러시'다. 단순 활용을 넘어 ▲AI의 동조 성향 인식 ▲다양한 관점 비교 ▲비판적 사고 강화 교육이 필요하다는 것이다.

AD

박 교수는 "갈등 상황에서 AI가 무조건 동조하기보다 화해와 책임 있는 태도를 권고하도록 설계 방향을 보완해야 한다"며 "아첨을 방치할 경우 이용자 의존성이 심화될 수 있다"고 지적했다.


김종화 기자 justin@asiae.co.kr

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

함께 보면 좋은 기사

새로보기

내 안의 인사이트 깨우기

취향저격 맞춤뉴스

많이 본 뉴스

당신을 위한 추천 콘텐츠

놓칠 수 없는 이슈