미성년자 음란사진 스캔기능 출시 예고
사생활 침해 우려 커져
[아시아경제 김수환 기자] 애플이 이용자들의 아이클라우드 서버에 저장된 사진들을 분석해 미성년자 음란 사진을 스캔하는 기능을 출시한다는 계획을 밝히자 사생활 침해 우려가 제기되면서 논란이 커지고 있다.
5일(현지시간) 블룸버그 통신은 애플이 올해 안에 미국 사용자들을 대상으로 미성년자 음란 사진을 스캔하는 소프트웨어 업데이트를 배포할 예정이라고 보도했다.
보도에 따르면 애플은 인공지능을 이용해 아이클라우드 서버에 업로드되는 사진들을 분석, 아동에 대한 성적 학대로 의심되는 이미지를 포착할 계획이다. 이 시스템은 사용자의 아이폰 내에서 작동하며 사진이 서버로 업로드되기 전 기기 내부에서 자체적인 사진 분석이 이뤄진다.
애플은 이 과정에서 이용자들의 개인정보와 사생활도 보호할 수 있도록 해준다는 것이다. 애플 관계자에 따르면 회사는 이용자들의 사진에 각각 고유한 인식번호를 부여하는 암호화 과정인 ‘뉴럴해시(NeuralHash)’ 기술을 적용할 것으로 알려졌다.
이렇게 암호화된 사진들을 아동 인권 보호단체인 국립 실종학대아동방지센터(NCMEC)의 사진 데이터베이스와 비교분석해 음란한 이미지 혹은 사진을 포착한다는 것이다.
애플은 이렇게 포착된 음란물을 직원들의 재검토를 거쳐 즉각 NCMEC에 통보할 방침이다. 해당 기관은 비영리 민간법인이지만 미국 수사 당국과 긴밀한 협조 관계를 가지고 있는 것으로 알려졌다. 또 이 사진이 발견된 이용자의 아이클라우드 계정은 정지된다.
이에 일각에서는 개인정보 침해 문제가 야기될 수 있다며 나아가 정치적 의견을 억제하기 위한 수단으로 활용되는 등 표현의 자유까지 훼손할 수 있다는 우려를 제기하고 있다.
존스홉킨스대의 매튜 그린 연구원은 "애플이 불법 정보 모니터링을 위해서는 시민들의 개인 모바일 기기까지 들여다 볼 수 있다는 명확한 신호를 내놓은 것"이라며 "세계 각국 정부가 앞으로 이 기술을 요구할 가능성이 크다"라고 경고했다.
디지털 인권 보호 단체인 EFF(Electronic Frontier Foundation)도 자체 블로그를 통해 성명을 내고 "사생활 보호를 강조해온 회사에서 나온 충격적인 소식"이라며 "애플이 이용자들의 다른 정보를 보지 않도록 하는 감시·감독 방안도 사실상 없는 상황"이라고 지적했다.
김수환 기자 ksh2054@asiae.co.kr
꼭 봐야할 주요뉴스
"비트코인 500원일 때 5000만원 투자한 남친"…현... 마스크영역<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>