구글 검색 결과에 표시되는 AI 요약(AI Overview)은 검색과 관련된 내용을 정리하고 관련 링크를 제공해 사용자가 필요한 정보에 쉽게 접근할 수 있도록 한다. 하지만 AI 요약에 사용되는 모델은 속도를 중시해 성능이 제한되어 있으며 이 탓에 정보 처리 능력이 떨어져 부정확한 결과를 내놓는다는 지적이 있다. 사운드 아티스트이자 유튜버로 활동하는 벤 조던은 자신의 이름을 검색한 결과 가본 적도 없는 이스라엘 여행 영상을 올린 사람으로 잘못 소개됐고 자신과 정반대되는 정치적 사상을 퍼뜨리는 계기가 됐다고 문제를 제기했다.
조던에게 어느 날 한 메시지가 도착했다. 그의 콘텐츠를 보던 한 시청자가 보낸 것으로 다른 스트리머가 당신의 콘텐츠를 언급하는 방송을 하던 중 채팅에서 누군가가 계속 조던은 가자에서의 이스라엘 점령에 동조적이는 댓글을 달고 있었다고 전했다. 이어 자신은 당신의 게시물을 자주 봐왔고 팔레스타인 관련 자선단체에 기부를 지원한 기억도 있어 그 댓글이 이상해 검색해봤는데 구글에서 ‘Being Wrong About Israel’이라는 당신의 영상이 언급되어 있었다고 밝혔다. 하지만 당신 채널에는 그런 영상이 없었는데 무슨 일이냐고 물었다.
https://embed.bsky.app/static/embed.jsThis is SO messed up. 🫥 I had a few messages and tags today asking me to clarify my stance on Israel, which was odd as I've been pretty outspoken against genocide and in full support of Palestinian statehood…
— Benn Jordan (@bennjordan.bsky.social) 2025년 8월 31일 오후 4:09
[image or embed]
이에 조던은 직접 구글에서 자신의 이름을 검색했다. 결과로 표시된 AI 요약은 일렉트로 뮤지션이자 과학 유튜버 벤 조던이라는 설명까지는 맞았지만 이어지는 문장에서 최근 이스라엘·팔레스타인 분쟁에 대해 발언하며 온라인상에서 큰 논쟁을 불러일으켰다며 그는 이스라엘 여행 경험을 공유했고 가자 국경 인근 키부츠 주민을 인터뷰했다고 적혀 있었다.
AI 요약은 조던이 8월 18일 유튜브에 이스라엘에 대해 내가 틀렸다: 현지에서 배운 것(I Was Wrong About Israel: What I Learned on the Ground)이라는 영상을 올렸으며 최근 이스라엘 여행에서 보고 들은 내용을 상세히 설명했다고 주장했다. 영상에는 가자 국경에서의 인터뷰가 포함되어 있고, 분쟁을 직접 이해하려는 시도였다는 설명까지 곁들여졌다. 이 때문에 영상이 SNS에서 논란을 일으켰고 조던이 맥락과 의도를 설명하는 상황에 놓였다는 것이 구글 AI의 결론이었다.
하지만 조던은 이 모든 내용이 완전히 꾸며낸 이야기라고 반박했다. 그는 평생 이스라엘에 가본 적도 없고 당연히 이스라엘 여행 관련 영상을 올린 적도 없다고 강조했다. 조던은 보수 성향 뉴스 사이트 뉴스맥스(Newsmax)에서 군사 관련 영상을 올리는 한 논평자와 자신이 혼동된 결과 AI 요약이 거짓된 이야기를 만들어냈을 가능성이 크다고 분석했다.
비슷한 사례는 과거에도 있었다. 작가 데이브 배리는 자신의 이름을 구글에서 검색했을 때 동명이인과 혼동되어 AI 요약에 작년에 사망한 인물로 표시된 경험을 공개한 바 있다. 그는 여러 차례 구글에 수정을 요청했으나 끝내 제대로 고쳐지지 않았다.
배리의 경우 잘못된 정보가 불쾌한 수준에 그쳤지만 조던은 정반대 정치적 입장을 퍼뜨리게 된 점을 심각한 문제로 보고 있다. 그는 블루스카이에 관련 사실을 올리면서 AI 요약이 이렇게까지 틀린다면 소송이나 집단소송으로 이어질 수 있고 최악의 경우 누군가의 목숨까지 위협할 수 있다는 댓글에 이미 변호사 2명과 연락해 소송 가능성을 검토 중이라며 자신은 분노하고 있다고 답했다.
이번 사례는 커뮤니티에서도 화제가 됐다. AI 환각과 정확성 부족이 앞으로 삶에 얼마나 큰 영향을 미칠지 보여주는 전형적 사례라는 의견이 나왔다. 또 다른 사용자는 무작위 검색 AI 요약 5건을 확인했는데 심각한 오류가 없던 것은 단 1건뿐이었다며 정확도 문제를 지적했다. 실제로 어떤 중소기업은 전혀 다른 브랜드 이름이 거론되면서 사기 기업이라는 낙인이 AI 요약에 찍히는 피해를 입었다는 보고도 있었다.
AI 요약은 생성형 AI가 학습 데이터에서 배운 내용을 바탕으로 답변을 만들어내기 때문에 부정확하거나 부적절한 정보를 포함할 수 있다. 이에 대해 구글 도움말에는 AI 요약 답변은 비판적으로 검토할 필요가 있다는 문구가 명시돼 있다. 하지만 이미 구글 AI가 만들어낸 잘못된 문장으로 인해 심각한 영향을 받는 사람이 존재하는 만큼 구글이 책임을 져야 한다는 목소리도 커지고 있다.


