AI 부작용 막기 위한 입법 논의…규제 단계적 도입해야
세계 각국에서 인공지능(AI)의 부작용과 역기능을 방지하기 위한 입법이 논의되고 있는 가운데 단계적으로 통제 수단을 도입해야 한다는 주장이 나왔다. AI 관련 산업과 시장이 형성돼 가고 있는 초기 단계라는 점을 고려해야 한다는 의견이다. 단기간에 규제를 강화하면 생태계를 구축하기도 전에 산업의 날개가 꺾일 수 있기 때문이다.
국회입법조사처는 '인공지능의 FATE(공정성·책임성·투명성·윤리의식)를 위한 입법 논의 동향과 시사점' 보고서를 냈다. 박소영 조사원은 "사회 곳곳에서 AI 기술의 효용성과 영향력을 체감하는 한편 AI로 인한 부작용과 역기능을 방지하기 위한 대응과 통제 수단 마련이 필요하다는 목소리도 높아지고 있다"면서 "AI 시스템의 FATE에 대한 규제가 어느 정도 필요하다는 점에 대해서는 사회적 합의가 도출되고 있다"고 밝혔다.
스탠퍼드대학교 인간중심 인공지능 연구소가 매년 발표하는 보고서 'AI 인덱스 2023'을 보면 AI 사고 및 논쟁 수는 2012년 10건에서 2021년 260건으로 26배 증가했다. 사례로는 화상회의 서비스에 AI를 활용해 여학생 감정을 모니터링하는 시스템을 개발한 사건, 영국 런던 경찰청이 범죄조직의 잠재적 위험도를 평가하기 위해 사용하는 AI도구에서 특정 민족과 인종을 차별하는 경향이 발견된 사건 등이 있다.
꼭 봐야 할 주요 뉴스
이란에 '토마호크' 얼마나 퍼부었길래…일본에 '당...
세계 각국은 AI 에대한 위험을 줄이기 위해 규제체계를 마련하고 있다. 유럽연합(EU)의 인공지능 법안은 인간 중심의 접근을 위해 인간에 의한 감독, 기술적 견고성과 안전성, 프라이버시·데이터 거버넌스, 투명성, 다양성·비차별성·공정성, 사회 및 환경복지를 AI가 준수해야 할 일반 원칙 등을 제시한다. 이를 기반해 사람의 안전·생계·권리에 대한 명백한 위협으로 간주하는 AI 시스템을 금지한다. 생성형 AI에 대해서는 사람이 AI와 상호작용하고 있다는 점을 알리고 기본권·민주주의·안전 등에 위반되지 않는 콘텐츠를 생성할 것을 요구한다. 미국과 한국도 인공지능에 대한 규제가 필요하다는 목소리가 높아지고 있다. 박소영 조사원은 "AI 시스템의 기능과 보안을 평가하는 내부 거버넌스를 구축해 그 위험을 진단하는 방향으로 입법이 논의되고 있다"면서 "AI 기술이 어디까지 발전할지 예상하기 어려운 만큼 규제를 한 번에 마련하기보다는 지속해서 논의하며 단계적으로 도입해야 한다"고 분석했다. 이어 "AI 규제의 실효성을 확보하기 위해서는 정부의 AI 검증 조사와 집행 역량을 확보해야 한다"고 강조했다.
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>