삼성서울·강북삼성 등
내·외부망 분리 '원천 차단'
서울대·아산·성모 등
곧 딥시크 차단 조치
환자·의료진 정보 유출 우려
"中 정부 흘러갈 가능성"
국내 상급종합병원들이 중국의 생성형 AI(인공지능) 서비스 '딥시크'에 대한 접속 차단에 잇따라 나서고 있다. 환자 의료 정보 등 민감 데이터의 유출을 막으려는 것이다.
7일 의료계에 따르면 삼성서울병원·강북삼성병원 등의 원내망에서 딥시크 등 생성형 AI 사용이 되지 않는 것으로 확인됐다. 이들 병원은 원내망과 외부망이 연결되지 않아 AI를 통한 정보 유출이 원천차단된다. 서울대병원과 서울아산병원, 서울성모병원 또한 이날 딥시크 차단 조치를 내릴 것으로 보인다. 국립암센터 역시 전날 병원내 딥시크 접속을 차단했다.
서울아산병원은 전날 직원 공지를 통해 "딥시크의 수집 정보 공개 범위가 불분명하다. 다른 AI에서는 수집하지 않는 추가 정보를 수집하는 등 우려되는 정황이 발견됐다"며 "2021년 시행된 중국 데이터보안법에 따라 수집한 데이터가 중국 정부로 흘러갈 가능성 있다"는 취지의 공지사항을 공유했다.
한 상급종합병원 관계자는 "대개 병원들은 원내 전산망을 외부와 분리하는 등 보안이 까다롭다"면서도 "정보 유출 가능성에 초점을 맞추고 선제적인 조치를 취한 것"이라고 말했다.
의료 분야는 신약개발·병원 시스템 개선 등 생성형 AI의 활용도가 가장 높을 것으로 기대되는 산업이다. 다만 환자·의료진의 개인 정보 유출과 검증되지 않은 정보의 활용을 통한 오류 등이 우려되는 분야기도 하다.
서울아산병원 연구팀이 올해 1월 발표한 연구에 따르면, 챗GPT와 딥시크 등 생성형 인공지능과 그 핵심 기술인 '대규모언어모델(LLM)'이 보안 시스템을 피해 민감한 개인정보에 접근할 확률은 최대 80.8%에 달했다. 김영학 서울아산병원 심장내과 교수·전태준 아산생명과학연구원 빅데이터연구센터 박사팀이 공동 연구한 결과다.
김영학 서울아산병원 심장내과 교수는 "의료분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다"며 "민감한 개인정보를 다루는 분야인 만큼 보안의 중요성이 특히 강조되며, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다"고 말했다.
병원은 수많은 데이터의 보고다. 생성형 AI가 도입되면 의료진이 반복·단순 업무를 줄이고 효율적인 병원 운영이 가능할 것이라는 게 업계의 평가다. 엑스레이·컴퓨터단층촬영(CT)·자기공명영상(MRI) 등 수많은 데이터를 AI가 학습하고 진단해 정확도를 높일 수 있다. 환자의 의료 데이터를 기반으로 맞춤형 치료 계획도 제공할 수 있다. 다만 보안이 위협될 경우 환자들의 민감한 개인정보 유출로 이어저 윤리적·법적 위험도 올라갈 수 있다.
병원과 더불어 부처·지자체·기관 등이 잇따라 딥시크 차단 조치를 취하거나 주의 지침을 내리고 있다. 제약·바이오 업계도 딥시크 경계 조치에 동참했다. 대웅제약은 전날부터 임직원 업무 PC에서 딥시크 접속을 차단키로 했다.
유한양행은 보안상 이유 등으로 딥시크나 챗GPT 등 생성형 AI를 사내에서 사용하지 않고 있다. 바이오 업체인 삼성바이오로직스는 정보 보안 유출 위험성 등을 고려해 이미 지난해부터 챗GPT 등 AI 관련 사이트를 차단 중이며 중국 딥시크도 출시 후 즉시 차단했다. 셀트리온은 딥시크를 포함한 AI 사용 방침과 관련해 사내 가이드라인을 마련하고 있다.
정동훈 기자 hoon2@asiae.co.kr
꼭 봐야할 주요뉴스

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>