임종인 고려대 정보보호대학원 석좌교수는 최근 “딥페이크 확산에 따른 민주주의 위기 심화가 점점 현실화되고 있다면서 “이를 막기 위한 글로벌 공조가 더욱 강화돼야 한다”고 밝혔다.
대한민국 1세대 사이버안보 전문가이자 대통령실 사이버 특별보좌관이기도 한 임종인 교수는 매경럭스멘과의 인터뷰에서 이렇게 말하며 “AI를 활용한 딥페이크는 원천차단이 사실상 불가능하기 때문에 효과적인 차단에 더 중점을 둬야 한다”면서 “핵 확산을 막기 위해 국제사회가 국제원자력기구(IAEA)를 만들었듯이 사이버안보도 이런 측면에서 접근할 필요가 있다”고 강조했다.
핵의 위험성을 일찌감치 간파한 국제사회가 핵 억지에 서로 손을 잡았듯이 딥페이크 문제도 초기부터 적극적으로 대응해야 한다는 것이다. 여기에는 딥페이크 확산에 빠르게 대처한다 해도 우리의 대응이 제약적일 수 밖에 없는 환경에 놓여 있는 점도 한몫하고 있다.
딥페이크 영상의 경우 보통 틱톡, 유튜브, 인스타그램 등 해외 소셜 네트워크 플랫폼(SNS)을 통해 퍼지는 경우가 많은데, 대한민국 관할권 밖에 있는 이들에게 우리가 할 수 있는 것은 적극적 대응을 ‘요청’하는 것뿐이라는 것이다. 임 교수는 “최근 문제가 된 윤석열 대통령의 가짜 동영상의 경우 삭제를 하는 데 이런 이유로 열흘이나 걸렸다”면서 “이미 볼 사람은 다 봤는데 삭제를 해봐야 무슨 소용이 있냐”고 반문했다.
고려대학교 대학원 암호학 박사
대통령실 사이버 특별보좌관
제4기 디지털수사자문위원회 위원장
국가정보원 사이버보안 자문위원
대검찰청 사이버수사 자문위원장
15대 한국정보보호학회 회장
고려대학교 정보보호대학원 원장 및 사이버국방연구센터 센터장
Q 딥페이크 문제가 얼마나 심각합니까.
A 이미 세계 각국은 선거 등 주요 사안에 딥페이크가 불러일으키는 사회 혼란을 경험하고 있습니다. 볼로디미르 젤렌스키 우크라이나 대통령이 러시아에 항복을 선언하는 영상이 등장하는가 하면, 차기 유력 대권주자로 떠오른 도널드 트럼프 전 미국 대통령의 체포 사진이 떠돌기도 했습니다. 올 1월 미 뉴햄프셔주 대선후보 경선 과정에서는 조 바이든 대통령이 투표 거부를 독려하는 딥페이크 음성 메시지가 유권자들에게 전화로 전달된 사례도 있습니다.
Q 4월 총선을 앞둔 우리도 딥페이크로 인한 혼란이 걱정입니다.
A 맞습니다. 모르긴 몰라도 주변국들이 자신들의 이해관계에 따라 선거 개입을 하고픈 유혹을 많이 느낄 것 같습니다. 중국의 경우 해커 수준은 세계적입니다. 최근 험한 말을 쏟아내고 있는 북한의 움직임도 유심히 봐야 합니다. 북한은 세계 5위 수준의 해커 보유국으로 딥페이크 영상을 통한 심리전을 펼칠 가능성이 농후합니다. 선거가 임박해 시도할 가능성이 있을 것 같습니다.
Q 딥페이크 등 온라인 허위 정보가 해외를 통해서 유포될 때가 더 문제라고 하는데, 왜 그런가요.
A 우리의 관할권이 미치지 않기 때문입니다. 틱톡, 유튜브, 인스타그램 등 해외 SNS의 경우 현지 본사에서만 대처 권한이 있습니다. 우리가 할 수 있는 것은 사실상 협조요청을 하는 수밖에 없습니다. 그리고 이들은 아동 포르노를 포함해 명예훼손과 명백한 허위 등의 이유일 때만 문제 영상을 빠르게 삭제해주고, 그 이외의 것에는 발빠르게 움직이지 않습니다. 이에 실제 조치가 이뤄지기까지 2주가 넘게 걸립니다. 이 사안 외에 유일하게 이들이 적극적으로 대처해주는 경우가 ‘위법’입니다. 그런데 우리의 문제이기도 한데, 딥페이크 관련 국내 법은 공직선거법만 있습니다. 가짜 영상이 선거와 관련돼 있지 않으면 다룰 수 없는 것이죠. 짜깁기로 판명난 윤 대통령의 가짜 영상도 이에 해당됩니다. 법 위반 여부를 판단하는 근거가 없으니 이미 퍼진 다음에야 조치가 가능했던 것이죠. 만일 한동훈 국민의힘 비대위원장의 딥페이크였다면 사정은 달라졌을 것입니다. 선거와 직접적으로 연관이 있기 때문에 공직자선거법을 적용할 수 있는 것이죠. 이 경우 법을 위반한 것이기 때문에 중앙선거관리위원회가 해외 플랫폼 업체들에 요청을 하면 72시간 안에 처리를 해줍니다. 해외 업체들의 기준이 그런 것이기 때문에 사실 우리가 어떻게 할 방법은 없습니다. 물론 국내에서는 이와 관계없이 딥페이크 당사자가 네이버나 카카오 등 플랫폼 운영자에게 요청을 하면 빠르게 대처 가능합니다.
Q 마침 당사자인 마크 저크버그 메타 CEO가 지난 2월 말 한국을 방문해 윤 대통령을 만났습니다. 사이버 특보로서 조언을 하셨을 것 같은데요.
A 딥페이크가 논의 안건에 올랐으면 좋겠다는 의견을 전달했고, 저커버그가 이 문제에 대해 화답을 한 것으로 압니다. (저커버그는 윤 대통령과 만난 자리에서 한국 선거관리위원회를 포함해 외국 정부들과 가짜 정보 유포를 제어하기 위한 협업이 광범위하게 이뤄질 수 있다는 뜻을 전달한 것으로 알려졌다.)
Q 그럼 딥페이크 문제에는 어떻게 대처를 해야 합니까.
A 사실 딥페이크 문제는 창과 방패의 싸움입니다. 디지털 기술의 발달로 딥페이크를 원천 금지하는 것은 불가능합니다. 제도권에서 금지를 시키더라도 사이버 암시장을 통하면 정교한 딥페이크는 언제든지 가능합니다. 이런 시장에서 활동하는 사이버 용병도 많습니다. 이들은 돈만 주면 뭐든지 합니다. 가상자산이 등장하면서 음성적으로 돈을 전달하는 루트도 생겼습니다. 딥페이크로 세상을 교란하고자 하는 이들이 돈만 있으면 뭐든지 만들어낼 수 있습니다. 홍콩에서 딥페이크를 통해 수백억원을 송금케 만든 사건은 이제 시작일 수 있습니다. 그래서 저는 국제사회의 공조가 더욱 빠르게 이뤄져야 한다고 생각합니다.
Q 구체적으로 말씀해주신다면요.
A AI 부작용은 우리가 상상하는 것 이상으로 치명적일 수 있습니다. 바이오를 예를 들면 전 세계 단백질 종류가 2억 개가 있는데, 2021년까지 인류가 파악한 것은 20만 개 정도였습니다. 그런데 구글 딥마인드가 개발한 단백질 구조 예측 프로그램인 알파 폴드가 나오면서 상황이 달라졌습니다. 1년 만에 2억 개가 다 파악이 됐습니다. 이는 AI를 나쁜 목적으로 이용한다면 언제든 코로나19보다 더 끔직한 바이오 무기가 나올 수 있는 환경이 만들어져 있다는 것입니다. 여기에 대한 효율적 대처는 일개 국가 차원에서는 어렵습니다. 국제사회가 함께 나서야 하고 그래서 저는 핵 확산 방지를 총괄하는 IAEA 같은 사이버 국제기구가 필요하다고 생각합니다. 핵이 확산되자 그 위험성을 간파한 국제사회가 빠르게 나섰듯이, 딥페이크 등 AI 부작용에 대한 문제도 역시 같은 길을 가야 한다고 봅니다.
Q 국내는 어떻게 해야 합니까.
A 최대한 이른 시일 내에 관련 법을 마련해야 합니다. 딥페이크의 먹잇감이 되는 선거와 관련해서는 빨리 정파에 관계없이 움직여야 합니다. 러시아 대선 개입을 겪은 프랑스는 2017년 정보조작대처법 입법을 통해 선거 기간 온라인 플랫폼 사업자에게 투명성 의무를 부과하고 있습니다. 영국의 온라인안전법, 독일 네트워크 집행법 등도 딥페이크 관련 규제법안 시 참고할 필요가 있습니다.
Q 결국 딥페이크를 얼마나 효율적으로 막느냐의 문제인 것 같습니다.
A 오픈AI가 내놓는 소라 등 생성형 AI의 경우 목적이 불순하면 영상 생성을 차단하는 기능이 들어갈 것 같습니다. 또 만들어진 이미지에 워터마크를 붙여 딥페이크라는 표식을 달 것 같습니다. 그런데 오픈 소스로 공개되는 AI 모델들은 누구나 사용할 수 있고, AI에 이해도가 있는 이들은 이런 딥페이크 방지 기술들을 회피할 수 있습니다. 또 현재 생성형 AI의 불안정성도 있습니다. 미국 디지털혐오대응센터가 발간한 보고서에 따르면 여러 생성형 AI가 딥페이크 생성 시도를 막지 못한 비율이 41%나 됐습니다. 참 쉽지 않은 문제인 것은 맞습니다.
Q 딥페이크 탐지 기술은 얼마나 발전해 있습니까.
A 국가정보원, 경찰, 네이버 같은 민간기업 등에서 관련 기술을 개발하고 있습니다. 구글이나 메타 등 해외 기업들도 마찬가지고요. 하지만 문제는 이에 대응하는 악의적 움직임도 이들에 못지않다는 것입니다. 어떤 딥페이크 탐지 기술이 등장해 99% 이상을 실시간으로 적발해 낸다고 할지라도 이 확률은 시간이 갈수록 급속히 낮아집니다. 최상위 해커들은 딥페이크에 악성코드를 담아 뿌리곤 하는데, 이들은 악성코드가 탐지되는지 여부부터 테스트를 합니다. 딥페이크를 막기에도 벅찬데, 추가 공격까지 하는 것이죠. 이들이 만일 유명인들의 온라인 계정을 해킹해 딥페이크 영상을 뿌린다면 그 전파속도는 상상 이상입니다.
Q 탐지 기술의 공조는 불가능합니까.
A 물론 가능합니다. 지난 2월에 독일 뮌헨에서 AI와 관련된 23개 회사가 딥페이크에 대응하기 위해 ‘AI 선거협정’이란 협의체를 만들고 AI 생성 콘텐츠의 위험성을 최소화하기 위한 기술을 개발하는 데 협력키로 했습니다. 일종의 공통 표준 기술을 만들자는 것인데, 문제는 취지는 좋지만 강제성이 없어서 얼마나 실효적일지는 의문이라는 점입니다. AI 부작용에 대한 대처는 자율규제로는 부족합니다. 그래서 강제성을 띠어야 하고, IAEA 같은 국제기구가 필요한 것입니다. 앞서도 말했듯이 딥페이크를 막으려는 기술에 상응하는 어둠의 기술 개발 속도도 만만치 않습니다.
Q 4월 총선을 앞두고 딥페이크 영상의 규제를 어디까지 해야 하는지에 대한 논란도 있는 것 같습니다.
A 악의적 영상은 당연히 차단해야 하지만 원천 차단은 좀 고민해봐야 할 문제 같습니다. 표현의 자유와도 연계돼 있기 때문입니다. 그리고 공직자선거법에 따르면 선거 90일 전부터는 딥페이크 영상을 활용한 선거운동을 금지하고 있습니다. 지금부터 만일 딥페이크 영상이 등장한다면 모두 불법이 되는 셈이죠.
Q 일반인들을 어떻게 대처해야 합니까.
A AI 리터러시(이해도)를 높여야 합니다. 앞으로 AI가 생성해 내는 것들은 신뢰의 문제에 직면할 수 있습니다. 어느 것이 진짜인지 가짜인지 모르는 상태에서 이를 구분해내는 안목을 길러야 하는 것이죠. ‘인디아나존스5’에서 40대의 해리슨 포드가 등장한 것은 딥페이크의 긍정적 부분입니다. 하지만 딥페이크로 조작된 테일러 스위프트의 영상은 악의적인 것이죠. 이런 것들을 구분해 생각하고 딥페이크를 스스로 경계하는 노력이 필요하다고 봅니다. 사이버상에서 누가 딥페이크의 타깃이 될지 모르는 것이 현실입니다.
[문수인 기자 · 사진 류준희 기자]
[본 기사는 매경LUXMEN 제163호 (2024년 4월) 기사입니다]