IBM이 인공지능(AI)의 신뢰와 안전성을 강조했다. 믿을 수 있는 기술이 돼야 이용자들의 선택을 받고, 이를 기반으로 발전의 속도를 낼 수 있기 때문이다. AI가 신뢰성을 높이기 위한 조건으로는 효과적인 규제와 개방적인 커뮤니티를 꼽았다.
크리스티나 몽고베리 IBM AI윤리위원회 의장(부사장)은 23일 서울 여의도 한국IBM에서 그룹 인터뷰를 갖고 이같이 밝혔다. 크리스티나 부사장은 지난 21일부터 이틀간 열린 'AI 서울 정상회의'에 참석하기 위해 방한했다. IBM은 이번 정상회의에서 AI 안전성을 강조한 '서울 AI 기업 서약'에 동참했다.
크리스티나 부사장은 안전한 AI를 위해 효과적인 규제와 기업의 책임이 모두 필요하다고 봤다. 효과적인 규제란 AI 기술 자체를 규제하는 것이 아닌 사용 사례에 따라 규제하는 것을 의미한다. 그는 "개인 신용에 대한 알고리즘이나 식당 추천 알고리즘은 크게 다르지 않다"며 "기술이 사용되는 사례에 따라 규제해야 한다"고 말했다.
이를 위한 국제적인 논의를 지속해야 한다고 강조했다. 지난해 영국과 올해 한국에 이어 내년 프랑스에서 AI 정상회의를 여는 것처럼 국제사회가 지속해서 AI 안전성을 논의해야 한다는 것이다. 크리스티나 부사장은 "여러 기업과 정부가 분절적으로 접근하면 안전성을 확보하기 어렵다"며 "플레이어들이 지속해서 협업하는 게 굉장히 중요하다"고 했다.
AI를 배포·사용하는 기업의 책임도 요구했다. 그 일환으로 IBM은 5년 전 업계에선 처음으로 AI 윤리위원회를 만들었다. AI 개발 단계부터 안전성과 윤리에 우선순위를 두고 있다는 설명이다. 새로운 기술의 영향을 파악해 부작용을 최소화하고 혁신성과 균형을 맞추기 위한 노력이다. 그는 "새로운 기술이 신뢰를 받을 때 채택되고 사용된다"며 "그래야 기술 혁신도 가속화된다"고 말했다.
다른 한편으로 개방성을 강조했다. 데이터와 AI 모델 등 기술을 공개해야 잠재적인 위험을 효과적으로 막을 수 있다고 보기 때문이다. 다양한 이해 관계자들이 AI 모델을 면밀하게 검토하고 취약성을 사전에 파악해야 해결 가능성이 높아진다는 얘기다.
개방성을 위해 IBM은 지난 21일(현지시간) 미국 보스턴에서 연례행사인 '싱크(THINK)'에서 AI 모델 그래니트(Granite)의 오픈소스화를 발표했다. 개발자들이 기술을 공유할 수 있는 플랫폼 허깅페이스와 깃허브에 이를 공개했다. IBM에서 가장 성능이 뛰어난 모델을 공개해 개선시킬 기회로 삼겠다는 설명이다.
최근 IBM이 인수한 글로벌 솔루션 기업 레드햇과 커뮤니티 프로젝트인 '인스트럭트랩(InstructLAB)'을 출시하기도 했다. 개발자들이 공개된 AI 모델을 발전시키고 자신의 데이터를 추가해 특정 영역이나 산업에 맞는 모델을 구축할 수 있는 커뮤니티다. 아울러 비공개 모델에 대해서도 투명성을 확보하기 위해 노력 중이다. 어떤 데이터를 사용하고 어떻게 훈련하는지 문서로 공개하고 있다.
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>