[톺아보기]‘이루다’와 인공지능 윤리

함혜리/언론인·문화비평

[톺아보기]‘이루다’와 인공지능 윤리 원본보기 아이콘

최근 인터넷 서비스를 업그레이드하면서 텔레비전과 연동되는 인공지능(AI) 스피커를 ‘뒤늦게’ 들여놓았다. ‘알파고’, 보스턴 다이내믹스의 인간형 로봇 ‘아틀란티스’와 4족 보행 로봇개 ‘스폿’ 등과는 비교도 할 수 없는 수준이지만 AI가 열어준 세상은 신기하기만 하다. 인공지능은 4차 산업혁명의 핵심 기술로 비약적인 발전을 거듭하고 있다. 그런데 모든 기술의 진보가 그렇듯이 AI 역시 편리함과 함께 많은 부작용을 동반한다. 윤리문제는 AI 시대에 직면하게 될 다양한 문제들 중에서도 가장 심각하게 다뤄야 할 부분이다.


그런 점에서 최근 AI 챗봇 ‘이루다’를 둘러싼 논란은 4차 산업혁명 시대를 맞은 우리에게 시사하는 바가 크다. 스캐터랩이 지난해 12월22일 정식 출시한 ‘이루다’는 블랙핑크를 좋아하고, 일상의 작은 부분을 사진과 글로 기록하는 것이 취미인 20살 여대생으로 설정됐다. 적극적인 마케팅 덕분에 코로나 상황에서 혼자 있는 시간이 많고 매일 온라인에 접속해 사는 10~20대로부터 관심을 모아 약 2주 동안 75만명에 가까운 이용자들이 사용하는 등 긍정적인 반응을 이끌어냈다.

하지만 온라인 커뮤니티의 일부 유저들이 ‘이루다’를 성적 대상으로 취급하고 학습을 시킨다는 것이 알려지면서 논란이 불거졌다. 이 인공지능 소프트웨어가 정해진 규칙에 따라 작동하는 룰 베이스에 기반하는 것이 아니라 이용자와 오가는 대화들로 학습을 하는 딥러닝 기반의 챗봇이라는 점을 악용한 것이다. 이루다의 혐오와 차별 등을 담은 부적절한 발언도 문제가 됐다.


과거에도 이와 비슷한 사례가 있었다. 마이크로소프트가 지난 2016년 3월 출시한 AI 챗봇 테이(Tay)는 백인 우월주의 및 무슬림 혐오 성향의 익명 사이트에서 비속어와 인종 및 성차별 발언을 반복 학습하고 홀로코스트가 조작된 것이라는 등의 발언을 쏟아내 물의를 빚었다. 마이크로소프트는 테이 출시 16시간 만에 운영을 중단했다.


논란은 이어지고 있다. 스캐터랩이 취합한 개인정보가 무단 도용해 유출시켰다는 주장이 제기 됐고 개인정보가 유출됐다고 주장하는 피해자들은 집단소송을 준비하고 있다. ‘이루다’는 자연스러운 문체, 화제 전환 등 콘텍스트를 읽으며 대화하는 능력에서 뛰어났는데 이는 실제 연인들간의 카카오톡 대화 내용 100억 건 이상을 데이터로 이용한 결과다.

딥러닝 기반의 AI는 개발 단계에서 어떤 데이터를 원재료로 삼았는지, 어떤 사용자와 무슨 대화를 나누느냐에 따라 결과가 확연히 달라진다. 콩 심은 데 콩 나고 팥 심은 데 팥 나는 것은 AI의 딥러닝에도 그대로 적용된다. 인공지능은 인간이 심어주는 데이터를 학습하지만 편견을 걸러내는 능력이 없기 때문에 데이터의 편향성에 특별히 주의를 기울여야 한다. 머신러닝 기능을 악용하지 않도록 사용자 교육도 필요해 보인다. 데이터의 주종을 이루는 개인정보 이용과 저작권에 대한 가치와 역할에 대한 이해도 반드시 선행되어야 한다.


올해 국제 전자제품 박람회(CES)에서도 인공지능의 윤리문제가 화두였다. 브래드 스미스 마이크로소프트 CLO (최고 법률책임자)는 “AI가 모든 걸 약속하는 것 같지만 우리는 새로운 가드레일을 마련해야 한다”면서 “인류는 기술이라는 무기를 통제할 수 있어야 한다.”고 강조했다. 문명적 전환을 맞아 기술의 사회적 영향력을 고려해야 한다는 것이 세계적 흐름이다.


인공지능은 걷잡을 수 없는 속도로 발전해 우리 생활 전반에 스며들고 있다. AI 세상이 찬란한 미래를 가져올지, 두려운 세상을 만들지는 사람이 하기에 달려있다. 더 늦기 전에 개발자와 사용자들이 반드시 지켜야 할 ‘AI 윤리규범’을 마련하고 이를 엄격하게 준수하도록 해야 한다. 우리가 지금 치르는 홍역이 보다 따뜻하고 인간적인 AI의 출현을 위한 전주곡이 되길 바라는 마음이 간절하다.








<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>