OCR·NLP부터 사기 탐지까지 활용 확대
감독 미흡·AI 결과 의존 시 오류 가능성…"인간 개입 형식화 우려"
판단 근거 모르는 '블랙박스 심사'…소비자 보호 공백 커진다

직장인 A씨는 최근 서울의 한 안과에서 비급여 검사(PP코드)를 받은 뒤 황당한 경험을 했다. 첫 번째 청구 때는 보험금이 정상 지급됐으나, 동일한 검사를 다시 받고 접수한 두 번째 청구는 "보장 대상이 아니다"라며 거절됐기 때문이다. 보험사에 항의하자 "지난번엔 AI 심사 과정에서 항목 구분을 잘못해 실수로 지급된 사례"라는 답변이 돌아왔다. A씨는 "기계가 실수했다면서 이제 와서 안 된다는 게 납득이 가질 않는다"며 "기계의 실수를 왜 가입자가 감수해야 하는 거냐"고 분통을 터뜨렸다.


보험금 심사에 AI 확산… 효율성 이면에 숨은 '불확실성'

[AI 보험, 혁신의 그늘]②보험금 심사까지 들어온 AI…소비자 보호 시험대
AD
원본보기 아이콘

보험 상담과 청구 등 대면 접점 영역을 넘어 이제 인공지능(AI) 도입은 보험금 지급 여부를 결정하는 '심사' 영역까지 깊숙이 침투하고 있다. 사고 접수부터 서류 판독, 지급 판단까지 전 과정이 자동화되면서 처리 속도와 효율성은 비약적으로 높아졌지만 알고리즘이 개입한 판단을 어디까지 신뢰할 수 있는지에 대한 논란도 커지는 모습이다.

2일 보험업계에 따르면 국내 주요 생명·손해보험사들은 보험금 심사 과정에 AI를 접목한 자동화 시스템 도입을 공격적으로 확대하고 있다. 모바일이나 인터넷으로 접수된 정보를 실시간으로 검토해 지급 여부를 판단하거나 사고 차량 사진을 분석해 수리비를 산출하는 이미지 기반 손해사정 기술이 대표적이다.


기술적 정교함도 더해지고 있다. 광학문자인식(OCR)과 자연어처리(NLP) 기술을 적용해 진단서·영수증 등 복잡한 의료 문서를 판독하고 질병 코드와 치료 항목을 자동으로 연계한다. 또한 보험사기 탐지 영역에서도 데이터 간 관계를 대조하는 네트워크 분석이나 사회관계망서비스(SNS) 데이터를 활용한 텍스트마이닝 기법 등 고도화된 AI 분석 기술이 전방위적으로 활용되고 있다.

AI 심사의 장점은 분명하다. 고빈도 단순·소액 사고의 처리 속도가 빨라지고 서류 누락이나 계산 오류를 줄여 일관성 있는 검증이 가능하기 때문이다. 심사 인력은 반복적인 확인 작업을 줄이는 대신 분쟁 가능성이 높은 사례나 복잡한 손해사정 업무에 더 집중할 수 있다는 것이 업계의 설명이다. 실제 일부 보험사는 AI 도입 이후 보험금 심사와 지급까지 걸리는 평균 처리 시간이 획기적으로 단축됐다고 밝히고 있다.


"AI가 그렇다네요"… 인간 심사역의 무비판적 수용 우려

[AI 보험, 혁신의 그늘]②보험금 심사까지 들어온 AI…소비자 보호 시험대 원본보기 아이콘

문제는 AI가 산출한 결과가 내부의 절대적인 '심사 기준'처럼 작동할 때 발생한다. 현재 대부분의 보험사는 AI를 1차 분석 도구로 활용하고 최종 결정은 사람이 내리는 '하이브리드' 구조를 취하고 있다. 사고가 접수되면 AI가 과거 데이터와 비교해 위험 점수나 손해 추정액을 산출하고 이를 심사 담당자가 검토해 결론을 내리는 식이다.


그러나 실제 심사 담당자가 업무 효율성을 이유로 AI 분석 결과에 과도하게 의존할 경우 사람이 개입하는 절차는 '형식적 승인'에 그칠 수 있다는 지적이 나온다. 홍지연 자본시장연구원 선임연구원은 "AI 의사결정 과정에서 인간의 개입과 감독이 충분히 이뤄지지 않으면 다양한 문제가 발생할 수 있다"며 "내부통제 시스템이 미흡한 경우 AI의 오작동이나 비합리적인 판단이 제때 시정되지 않을 수 있고 AI 결과를 비판 없이 수용하는 '과신 리스크' 자체가 주요 위험 요소가 된다"고 짚었다.


알고리즘의 기본 속성인 '과거 데이터 기반 학습'도 소비자 보호를 위협하는 요소다. 만약 과거 보험금 지급 관행이 보수적이었다면 AI는 이를 그대로 학습해 유사한 판단을 강화할 수 있다. 특히 환자의 특수한 의료적 경과나 맥락이 반영되지 못한 채 알고리즘이 이를 단순 패턴으로 처리할 경우 실제 상황과 동떨어진 '부지급' 결론을 낼 위험이 상존한다는 분석이다.


내가 왜 거절됐나요?…답 못 하는 '블랙박스 심사'

보험사기 탐지 시스템의 양면성 역시 논란의 중심이다. 정교한 탐지는 허위 청구를 걸러내 선량한 가입자의 보험료 인상을 막는 효과가 있지만, 기준이 과도하게 엄격할 경우 정상적인 청구까지 의심 대상으로 분류할 수 있다. 특정 병원이나 치료 방식이 반복된다는 이유로 AI가 '위험 신호'를 보내면 소비자는 추가 서류 제출이나 재심사를 요구받는 등 불필요한 절차적 부담을 지게 된다는 지적이다.


소비자 보호 측면에서 가장 큰 쟁점은 '설명 가능성'이다. 보험금이 거절됐을 때 보험사가 약관 사유를 설명한다 하더라도 실제 판단에 개입한 AI 알고리즘의 산출 논리를 일반 소비자가 이해하기란 사실상 불가능하다. 판단 근거가 불투명한 이른바 '블랙박스' 문제다.


책임 소재도 모호하다. AI의 판단 오류로 소비자가 불이익을 받았을 때 보험사가 전적으로 책임을 져야 하는지, 아니면 시스템 공급사와 책임을 나눠야 하는지에 대한 기준이 충분히 구체화되지 않았기 때문이다. 설명 가능성 문제를 방치할 경우 디지털 취약계층의 이의 제기 자체가 차단되는 소외 문제로 이어질 수 있다는 우려도 제기된다.

AD

[AI 보험, 혁신의 그늘]②보험금 심사까지 들어온 AI…소비자 보호 시험대 원본보기 아이콘

결국 AI 심사가 확대될수록 단순히 사람이 최종 승인하는 형식적 절차를 넘어 소비자가 이해할 수 있는 수준의 설명을 제공하고 권익을 보호할 수 있는 체계적인 제도 마련이 필요하다는 지적이 나온다. 김용하 순천향대 IT금융경영학과 교수는 "아직까지는 보험업계의 AI 활용이 인간의 판단을 완전히 대체하는 수준은 아니며 단순·반복적인 업무를 보조하는 단계에 가깝다"면서도 "다만 앞으로 AI 기술 의존도가 높아질수록 이를 어떻게 통제하고 책임 구조를 명확히 하느냐가 핵심 과제가 될 것"이라고 강조했다.


이승형 기자 trust@asiae.co.kr

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

함께 보면 좋은 기사

새로보기

내 안의 인사이트 깨우기

취향저격 맞춤뉴스

많이 본 뉴스

당신을 위한 추천 콘텐츠

놓칠 수 없는 이슈