[THE VIEW]보이지 않는 취향 설계자, 개인화 AI
편리함 뒤 숨은 알고리즘 기준과 권력
추천 알고리즘 블랙박스가 만든 '새로운 불평등'
개인화 AI는 소비자가 원하는 것을 알아주고 추천해주는 편리한 기술로 쉽게 포장된다. 플랫폼은 소비자의 취향을 이해하고, 소비자가 사고 싶을 만한 상품을 배치하며, 읽을 만한 뉴스와 들을 만한 콘텐츠를 자동으로 골라준다. 소비자 입장에서는 편리함이 극대화된 것처럼 느껴진다.
그러나 최근 미국에서 논의되는 흐름을 보면, 개인화 AI는 정교해질수록 오히려 더 불투명해지고, 더 통제하기 어려운 기술로 변하고 있다. 기술의 고도화가 왜 이런 추천이 나왔는지조차 알 수 없는 시대를 앞당기고 있다. 결국 AI가 똑똑해질수록 우리는 그 판단의 기준과 과정을 점점 더 이해할 수 없게 되고 있다.
미국 연방거래위원회와 소비자금융보호국은 이미 여러 플랫폼을 대상으로 불투명한 개인화 알고리즘을 문제 삼기 시작했다. 문제의 본질은 단순히 알고리즘이 왜 이런 추천을 했는지 알 수 없다는 설명 가능성 부족이 아니다. 같은 사용자라도 기기, 세션, 맥락 등에 따라 추천이 달라지고, 소비자가 의도하지 않은 아주 작은 신호까지 모두 감지되어 추천 논리가 실시간으로 재구성된다는 사실이다.
이 과정은 기업조차 완벽히 설명하기 어렵고, 규제 당국은 더욱 파악하기 어렵다. 결국 소비자는 추천된 것을 보지만, 그 뒤에서 무엇이 계산되고 어떤 이익이 우선되는지는 알 수 없다.
예컨대, 금융 추천 서비스를 이용하는 두 소비자는 거의 같은 조건임에도 전혀 다른 신용카드나 금융상품을 제안받는다. 미국에는 이미 동일한 재정상태인데도 어떤 소비자는 고이자 상품을, 어떤 소비자는 더 유리한 상품을 추천받는다는 사례들이 보고되었다. 알고리즘이 특정 소비자를 광고 가치가 높은 고객으로 판단할 경우, 보다 수익성 높은 추천이 노출된다.
이런 구조는 공정성 문제를 넘어 사회적 불평등을 재생산할 가능성까지 만든다. 기업이 의도했든 아니든, 알고리즘은 데이터에 내재한 편향과 플랫폼의 경제적 유인을 반영해 특정 소비자에게 불리한 선택지를 지속적으로 제공할 수 있기 때문이다.
더 큰 문제는 개인화 AI가 예측된 취향을 만들어낸다는 점이다. 알고리즘은 소비자가 이미 좋아하는 것만 보여주는 것이 아니라, 소비자가 좋아하게 될 것 같은 것을 선제적으로 추천한다. 이렇게 되면 소비자의 취향 형성 과정마저 플랫폼 주도로 이뤄지게 되고, 사용자는 자신의 선택이 자유로운 의사결정인지, 아니면 정교한 최적화 모델이 안내한 결과인지 구분하기 어려워진다.
소비자 심리학에서는 이를 선택의 프레이밍 효과라고 부르는데, AI 개인화는 이 효과를 극단적으로 강화한다. 나의 선택이 나의 것이 아닌 시대, 이것이 개인화 AI의 역설이다.
개인화 알고리즘은 소비자의 온라인 움직임 전체를 실시간으로 포착해 추천을 재구성한다. 겉으로는 편리해 보이지만, 그 기준과 작동 과정은 점점 더 불투명해지고 있다. 사진 제미나이.
원본보기 아이콘한국의 경우 역시 플랫폼 시장은 몇몇 대형 사업자가 주도하는 구조라 개인화 알고리즘의 영향력이 크다. 앱들은 대부분 광고와 추천이 뒤섞인 인터페이스를 제공하며, 추천 노출 기준이나 광고 개입 여부를 명확히 밝히지 않는 경우가 많다.
소비자는 본인의 취향에 맞아서 뜬 건지, 아니면 광고비를 많이 낸 상품인 건지 판단하기 어렵다. 더구나 빠르게 반응하고 패턴이 명확한 환경에서 AI 최적화에 이상적으로 사용될 수 있기 때문에, 알고리즘의 영향력은 더 강하게, 더 빠르게 작동한다.
앞으로 필요한 것은 추천 기준과 데이터 활용 범위를 최소한이라도 이해할 수 있게 만드는 설명 가능한 개인화이며, 광고와 비광고가 뒤섞인 인터페이스를 명확히 구분하려는 규제적 및 산업적 노력이 병행되어야 한다. 미국 연방거래위원회가 다크 패턴을 강하게 규제하며 투명성을 요구하는 것처럼, 한국에서도 개인화 알고리즘의 작동 방식이 소비자를 오도하지 않도록 감시할 체계가 필요하다.
꼭 봐야 할 주요 뉴스
할인 늘려도 안 팔린다… 잘나가던 세계 1위도 올...
나아가 알고리즘 자체가 불공정하거나 특정 집단에 불리하게 작동하는지 정기적으로 감독하는 프로세스 역시 필수적이다. AI가 우리를 더 잘 이해하는 시대일수록, 우리는 AI가 어떤 기준과 목적을 바탕으로 판단하는지 더 잘 알 권리가 있다. 개인화가 맞춤형 편리함에서 보이지 않는 조정력으로 변하고 있는 지금, 개인화 AI는 기술의 문제가 아니라 소비자의 선택권과 공정성을 좌우하는 문제로 바라봐야 한다.
손윤석 미국 노터데임대 교수
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>