권력자는 권한과 책임이 너무 크고 많아, 비서를 필요로 합니다. 비서는 그 누구보다 가까이서 권력자를 맴돕니다. 실권이 없다 한들, 그가 얻을 수 있는 정보량 상당하죠. 그런데 한번 상상해보세요. 공식 일정을 관리하고, 사생활의 비밀까지 알고 있을 그 '믿음직한 비서'가 사실은 간첩이라면? 실제 있었던 일입니다. 그것도 한 국가의 최고권력자, 총리의 비서가 스파이였던 겁니다.
1974년, 빌리 브란트 서독 총리의 개인 비서 귄터 기욤(Gunter Guillaume)이 동독 간첩 혐의로 체포됩니다. 기욤은 지난 수년간 그림자처럼 브란트를 따라다닌 비서죠. 브란트가 보던 기밀문서를 정리하고, 중요 회의에 참석하며, 총리의 사적인 여행까지 동행했죠. 동서독 화해를 위한 브란트의 역사적인 '동방정책'의 내막이 실은 동독에 실시간 보고되고 있었던 셈입니다. 믿고 맡긴 비서가 실은 적국의 눈과 귀였단 사실이 드러나자, 브란트는 정치적 책임을 지고 총리직에서 물러납니다.
반세기가 지난 지금, 우리는 '새로운 비서'의 시대를 맞이하고 있습니다. 인공지능(AI) 혁명에 이은 'AI에이전트(Agents)'의 등장이죠.
AI에이전트는 사용자의 지시, 명령은 물론 주변 환경, 상황을 능동적으로 파악해 자율적으로 의사결정하고 행동합니다. 그 역할과 범위는 사실상 무제한적입니다. 단순 일정 관리 비서일 수도 있고, 데이터 분석·영업·프로그래밍 등 업무에 깊숙이 관여하는 비서일 수도 있습니다. 기술적으로 완성된 AI에이전트라면, 귄터 기욤의 업무는 아주 일부에 불과할 뿐이죠.
오픈AI, 구글, 마이크로소프트(MS) 메타, 아마존 등 빅테크 기업들은 모두 AI에이전트 완성에 전력을 다하고 있습니다. 오픈AI 최고경영자(CEO) 샘 올트먼은 "2025년 내로 AI에이전트가 노동시장에 본격적으로 합류할 것"이라고 말합니다. 세일즈포스(Salesforce) CEO 마크 베니오프는 "AI에이전트라는 디지털 노동력을 제공하는 세계 1위 업체가 될 것"이라고 공언했습니다.
현 수준의 AI에이전트는 기업 업무 전반에 이미 관여하고 있습니다. 모빌리티 업체 리프트(Lyft)는 고객 지원용 AI에이전트 시스템을 구축했습니다. 앤스로픽(Anthropic)의 클로드(Claude)를 활용했죠. 리프트의 AI에이전트는 소비자의 반복적인 문의를 신속히 처리하고, 다소 복잡한 문의는 인간에게 연결하는 식으로 작동합니다. 리프트는 2월 "이 시스템을 통해 고객의 문제 해결 시간을 87% 단축했다"고 밝혔습니다.
시장조사기관 CB인사이트(Insights)가 지난 2월 발표한 보고서에 따르면, 기업의 63%가 "AI에이전트는 향후 12개월 이내에 매우 중요한 전략이 될 것"이라고 답했습니다. 단순한 실험 수준을 넘어서, 본격적인 도입 단계로 넘어가고 있다는 것이죠.
이처럼 중요성이 커진 AI에이전트이지만, 기업들의 고민이 없는 건 아닙니다. 기업들이 AI에이전트와 관련해 꼽은 가장 큰 우려는 '신뢰성과 보안(47%)'이었습니다. 이는 다른 우려 사항인 기술적 구현이 어려움(41%), 인력 및 기술 부족(35%)에 비해 월등히 높은 수치였죠. AI에이전트는 어떠한 신뢰성과 보안 문제를 안고 있을까요.
AI에이전트가 해야 할 가장 간단하고 보편적인 기능은 뭘까요. 이메일을 정리하고, 회의를 요약하며, 일정을 관리하는 정도일 겁니다. 그런데 만약 이 AI 비서가 외부의 지시에 따라 움직인다면 어떨까요. 마치 귄터 기욤이 동독의 스파이였던 것처럼요.
디지털 보안 관련 국제적 비영리단체인 OWASP는 AI 앱과 관련한 10가지 주요 취약점을 매년 업데이트하고 있습니다. 2023년 처음 보고서가 나온 후, 취약점 1위를 내내 차지하고 있는 것. 바로 '프롬프트 인젝션(Prompt Injection)'입니다.
프롬프트 인젝션이란, 정상적으로 보이는 프롬프트를 통해 민감한 데이터를 뽑아내거나 결과물을 조작하거나, 잘못된 정보를 퍼뜨리는 행위입니다. AI 챗봇에서 프롬프트 인젝션이 발생하는 상황을 가정해보죠.
이런 식으로 해커는 K사의 기밀을 뽑아낼 수 있습니다. 그것도 아주 쉽게요. 프롬프트 인젝션에는 많은 기술적 지식이 필요하지 않습니다. 단순히 질문(프롬프트)만 입력하면 되죠.
프롬프트 인젝션에 노출된 기업은, 민감 정보를 유출 당하는 것은 물론이고, 중요한 의사결정까지 침해당할 수 있습니다. 최근 채용 과정에서 AI를 활용하는 기업이 많습니다. 채용 AI 에이전트는 입사 지원자가 올린 문서를 검토하고 분석, 일차적인 결론(합격 또는 불합격)을 내리게 됩니다.
이때 악의적인 지원자가 프롬프트 인젝션 공격을 한다면 어떨까요. 입사 지원서에 채용 AI에이전트가 작동하게 하는 특정한 프롬프트를 명령을 숨겨두는 방식으로요. 문서를 읽던 채용 AI 에이전트는 해당 프롬프트를 발견하고 자동으로 응답하게 될 겁니다. 해당 지원자에게 고득점을 주거나, 즉각 합격하도록 만들 수 있는 겁니다.
프롬프트 인젝션은 기업에 중대한 위협이지만, 100% 예방하기는 쉽지 않습니다. 프롬프트 인젝션을 예방하기 위해 이용자의 질문(입력) 또는 답변(출력)을 지나치게 제한하면, AI의 성능이 저하될 수 있기 때문입니다.
그럼에도 프롬프트 인젝션 위험을 완화하고, 이용자와 기업을 보호할 수 있는 기본적이고 중요한 방법은 많습니다.
IBM은 프롬프트 인젝션 방지와 완화를 위한 4가지 원칙을 제시합니다. '일반적인 보안 관행 준수', '입력 유효성 검사', 최소한의 권한 부여', '인간의 개입'입니다.
일반적인 보안 관행 준수
IBM은 "의심스러운 이메일과 웹사이트를 피하라"고 조언합니다. 디지털 서비스 이용자의 기본적인 행동 강령이자 보안 원칙이죠. 이를 통해 악성 프롬프트를 접할 가능성 자체를 줄일 수 있습니다.
입력 유효성 검사
기존에 알려진 프롬프트 인젝션의 유형을 미리 검토하고, 이와 유사한 입력을 사전에 차단하는 조치입니다. IBM은 "조직에서는 사용자 입력을 알려진 인젝션과 비교하고, 유사해 보이는 프롬프트를 차단하는 필터를 사용하여 일부 공격을 차단할 수 있다"고 설명합니다.
최소한의 권한 부여
AI에이전트에는 '최소한의 권한'만 부여해야 합니다. 위험할 수 있는 특정 기능은 제한해두고, 꼭 필요한 접근 권한만 부여하라는 겁니다. IBM은 "권한을 제한한다고 해서 즉각적인 인젝션을 막을 수는 없지만, 피해의 정도는 제한할 수 있다"고 합니다.
인간의 개입
AI비서가 아무리 유능하고 믿음직스럽다고 해도, 사람의 개입은 필요합니다. 특히 중요한 의사결정 과정에서는 사람이 개입해서 최종 승인하는 '휴먼 인 더 루프(Human in the Loop)' 방식을 적용해, 위험한 출력의 가능성을 줄일 수 있습니다.
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>