개인정보보호위, 6개 AI 기업에 개선권고
AI 학습 데이터에 주민번호 등 정보 포함
"인적검토 과정, 이용자에 명확히 알려야"
정부가 오픈AI, 구글, 네이버 등 인공지능(AI) 서비스와 관련된 거대언어모델(LLM) 기업 6곳에 대대적인 개선 권고를 내렸다.
개인정보보호위원회는 27일 전체회의를 열어 LLM을 개발·배포하거나 이를 기반으로 AI 서비스를 제공하는 6개 사업자에 대해 개인정보 보호의 취약점을 보완토록 개선권고를 의결했다. 개선권고 대상이 된 기업은 오픈AI, 구글, 마이크로소프트(MS), 메타, 네이버, 뤼튼테크놀로지스다.
개인정보위는 AI 서비스 확산으로 사생활 침해 우려가 커짐에 따라 지난해 11월부터 한국인터넷진흥원과 함께 사전 실태점검을 진행했다. 점검 결과 기업들은 개인정보보호법상 기본적인 요건을 대체로 충족했지만 ▲AI 학습 데이터에 포함된 개인정보 처리 ▲인적 검토 과정을 통한 사생활 침해 ▲개인정보 침해 예방·대응 조치 및 투명성 등과 관련해 일부 미흡한 사항이 발견됐다.
먼저 AI가 무작위로 학습하는 데이터에 주민등록번호, 신용카드번호 등 중요한 개인정보가 포함될 수 있는 점이 밝혀졌다. 오픈AI, 구글, 메타 등 LLM 개발 기업의 경우 학습 데이터에서 이 같은 주요 식별정보를 사전 제거하는 조치가 충분하지 않은 것으로 확인됐다.
개인정보위는 AI 서비스 제공 단계별 보호조치 강화를 요구하는 동시에 인터넷에 우리 국민의 개인정보가 노출된 것을 탐지한 URL을 사업자에게 제공하기로 했다.
또한 개인정보위는 이용자가 AI 챗봇과 나눈 대화를 사람이 직접 검토할 수 있다는 사실을 이용자에게 명확하게 고지할 것을 권고했다. 개인정보위는 "LLM 기반 AI 서비스 제공사업자는 AI 모델이 정확한 답변을 하도록 다수의 검토 인력을 투입해 질문·답변 내용을 직접 열람·검토해 데이터셋을 만들고 있다"며 "이를 AI 모델 학습 및 프롬프트 등 서비스 개선에 활용하고 있는 것으로 확인됐다"고 설명했다.
하지만 이용자 관점에서 본인이 입력한 데이터에 검토 인력이 투입되는 과정을 알기 어렵고, 중요한 개인정보나 이메일 등을 입력할 가능성이 있어 사생활 침해로 이어질 위험이 있다. 개인정보위는 이용자가 입력 데이터를 손쉽게 삭제할 수 있도록 해당 기능에 대한 접근성을 제고하도록 권고했다.
마지막으로 동일한 LLM을 기반으로 한 AI 서비스라도 개인정보·민감정보에 대한 답변 등 침해 예방 조치의 정도가 다른 것으로 확인됐다. 개인정보위는 AI 서비스나 LLM의 취약점 발견 시 신속히 조치할 수 있는 프로세스도 갖추도록 개선 권고했다.
개인정보위 관계자는 "AI 산업 변화에 맞춰 정보 주체의 개인정보를 안전하게 보호할 수 있도록 지속적으로 모니터링할 것"이라며 "AI 가이드라인 마련, 개인정보 강화 기술 개발 등의 후속 조치를 취할 계획"이라고 밝혔다. 네이버 측은 "앞으로도 개인정보위와 긴밀히 협력해 이용자 개인정보 보호를 최우선으로 서비스를 제공할 것"이라고 말했다.
김보경 기자 bkly477@asiae.co.kr
이정윤 기자 leejuyoo@asiae.co.kr
꼭 봐야할 주요뉴스
"월급 뻔하니 대용량 사서 소분해 써요"…역대급 ... 마스크영역<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>