[AI리터러시] 진짜보다 더 진짜 같은 가짜-AI가 흔드는 현실의 경계

2023년 3월, 소셜미디어에는 도널드 트럼프 전 미국 대통령이 경찰에 체포되는 장면의 사진이 확산됐다. 팔을 붙잡힌 채 이동하는 모습까지 사실적으로 표현된 이 이미지는 실제 상황처럼 받아들여지며 빠르게 공유됐다. 한번 쯤 봤음직한 이 이미지는 미드저니(Midjourney)로 만들어진 합성 이미지였다.

이 이미지를 제작한 인물은 벨링캣(Bellingcat)의 창립자 엘리엇 히긴스(Eliot Higgins)으로, 딥페이크 기술의 위험성을 시연하기 위한 목적이었다고 밝혔다. 그러나 의도와 달리 이미지는 실제 사건처럼 소비되며, 생성형 AI가 정치적 허위정보 유통에 활용될 수 있다는 가능성을 보여줬다.

당시에는 기술 수준 자체가 충격으로 받아들여졌다. 그러나 2026년 현재, 상황은 달라졌다. 생성형 AI는 이미지의 질감, 조명, 인물의 표정까지 정교하게 구현하며 실제 사진과 구별하기 어려운 수준에 이르렀다. 문제는 기술 자체가 아니라, 그 기술이 바꿔놓은 정보 환경이다. 이제 '보이는 것'만으로 사실을 판단하기는 점점 어려워지고 있다.

이미지·음성·영상 생성 AI가 만드는 정보 환경의 변화

실제 전쟁 상황에서도 이러한 혼란은 이미 현실이 됐다. 러시아와 우크라이나 전쟁에서는 가짜 영상과 조작된 콘텐츠가 반복적으로 유통됐고, 최근 중동 지역의 군사적 충돌 국면에서도 AI로 생성된 전투 장면과 폭격 영상이 실제처럼 확산되고 있다. 극적인 영상일수록 더 빠르게 공유되며, 수많은 이용자들이 이를 사실로 받아들이기도 한다.

이러한 변화는 음성 영역에서도 확인된다. 2024년 1월, 미국 뉴햄프셔주 민주당 예비경선을 하루 앞두고 유권자들에게 조 바이든 대통령의 목소리를 모방한 자동 음성 메시지가 발송됐다.

메시지의 내용은 경선 당일 투표를 자제하고 11월 본선을 위해 표를 아끼라는 것이었다. 투표일을 혼동하게 만드는 이 메시지는 실제 음성처럼 들렸지만, 선거 참여를 방해하기 위해 제작된 딥페이크였다. 이 사건은 수사로 이어지며, 음성 합성 기술이 선거에 영향을 줄 수 있는 현실적 위험으로 떠올랐다.

최근 음성 생성 기술은 비교적 짧은 음성 샘플만으로 특정 인물의 목소리를 재현할 수 있는 단계에 도달했다. 일레븐랩스(ElevenLabs)와 같은 서비스는 음성을 합성하고 실시간 변조까지 가능하며, 이를 악용한 보이스피싱이나 금융 사기 사례도 증가하고 있다.

지난 2024년 22대 총선을 앞둔 시점에서 중앙선거관리위원회는 19일 간 딥페이크 관련 위반 행위 129건 적발하기도 했다. 일부 영상은 실제 발언처럼 보이도록 편집돼 유권자 혼란을 유발했다.

생성형 AI는 단순한 도구를 넘어 정보 생산 방식 자체를 바꾸고 있다.

영상 생성 기술 역시 급격한 속도로 진화하고 있다. 2024년 2월 공개된 소라(Sora)는 텍스트 입력만으로 고품질 영상을 생성하며 큰 주목을 받았다. 이후 생성형 영상 기술은 장면 전환, 카메라 움직임, 인물 일관성까지 구현하는 수준으로 빠르게 발전하고 있다. 다만, 오픈AI는 지난 3월 24일, 소라 서비스를 종료할 계획이라고 발표했다.

동영상을 생성하는 AI의 이러한 변화는 '영상은 증거'라는 기존 인식을 흔들고 있다. 더 나아가 실제 영상조차 가짜로 의심하기도 하는 일도 일어나기도 한다. 정보의 신뢰 기반 자체가 흔들리는 상황이다.

이용자의 판단역량이 필요한 때

각국 정부는 대응에 나서고 있다. 유럽연합은 EU AI Act를 통해 딥페이크 콘텐츠에 대한 표시 및 투명성 의무를 도입했고, 우리나라에서는 선거법 개정을 통해 선거 기간 중 딥페이크 콘텐츠의 제작·유포를 규제하고 있다. 다만 디지털 콘텐츠의 국경 없는 확산 구조를 고려할 때, 법적 대응만으로는 한계가 있다는 지적도 나온다.

결국 핵심은 기술이 아니라 이용자의 판단 역량이다. 이미지나 영상 콘텐츠를 접했을 때는 역검색을 통해 출처를 확인하고, 동일한 내용이 신뢰할 수 있는 복수의 언론에서 보도되는지 검증할 필요가 있다. AFP팩트체크 사이트처럼 SNS상에서 돌고 있는 조작된 사진이나 영상을 검증하고, 사실여부를 판단해주는 사이트를 살펴보는 것도 도움이 된다. 또한 공식 발표나 1차 출처를 확인하고, 시간과 맥락이 일치하는지도 점검해야 한다. 감정을 강하게 자극하는 콘텐츠일수록 의도된 정보일 가능성을 염두에 두는 태도 역시 중요하다.

생성형 AI는 단순한 도구를 넘어 정보 생산 방식 자체를 바꾸고 있다. 그 변화 속에서 무엇을 믿고, 어떻게 판단할 것인지는 점점 더 개인의 책임 영역으로 이동하고 있다. 결국, 가장 정교한 팩트체커는 알고리즘이 아니라, 의심할 줄 아는 사람이다. 사람이 해야 할 의무를 버리지 않는 게 중요하다.