본문 바로가기

머니트렌드

[Issue] 인공지능 AI가 만들어내는 진짜같은 가짜

페이지 정보

작성자 DKNET
리빙트렌드 댓글 0건 작성일 23-06-30 16:52

본문

▶▶▶ 당신이 들은 것은 가짜다!

약 3초 분량의 목소리 샘플만 있으면 생성형 인공지능(AI)으로 이를 완벽히 복제해 특정인의 목소리, 말투, 잘쓰는 표현 등을 구현할 수 있다. 범죄자들은 이미 이같은 기술을 보이스피싱에 악용하고 있는 것으로 나타났다.

컴퓨터 바이러스 백신 업체 맥아피(McAfee)는 이같은 연구결과를 발표하며 관련 피해 사례가 늘고 있다고 전했다. 맥아피가 지난 4월 미국·프랑스·인도·일본 등 9개국에서 성인 7000명을 대상으로 한 설문조사에 따르면 응답자의 10%가 생성형 AI로 복제한 보이스피싱을 당한 적이 있다고 답했다. 이 중 77%는 금전적 피해를 입었고 30% 이상이 1000달러 이상의 피해를 입은 것으로 나타났다.

범죄자들은 범죄 대상의 가족이나 친척 등의 목소리를 생성형 AI로 복제한 뒤 범죄에 악용했다. 이들은 범죄 대상과 통화를 하며 범죄에 필요한 문장을 생성형 AI에 입력한 뒤 실시간으로 추출된 결과물을 이용했다. 일부 범죄자들은 범죄 대상의 개인정보를 조사한 뒤 이를 범죄에 이용하기도 했다. 돈이 필요하다는 전통적인 보이스피싱 기법에 생성형 AI로 복제한 목소리, 탈취한 개인정보까지 더해 감쪽같은 범죄를 저지르는 것이다. 스티브 그롭먼 맥아피 부사장은 “생성형 AI를 악용한 음성 복제는 매우 사용하기 쉬운 수단”이라며 “범죄자는 전문지식 없이도 생성형 AI로 목소리를 복제할 수 있다”고 말했다.

연방거래위원회(Federal Trade Commission, FTC)는 사기꾼들이 AI를 이용해 사람들의 목소리를 복제하고, 이런 범죄가 전국의 사람들에게 불안감을 주고 있다고 경고했다.

범죄자들은 가족의 목소리를 복제한 AI를 이용해 자동차 사고가 났다거나 유괴됐다는 등의 거짓으로 피해자들에게 돈을 요구해 갈취한다

전문가들은 이런 사기에 넘어가는 경우가 흔하다고 말한다. 금융 및 신원 보호회사 IdentityIQ의 창립자 Scott Hermann는 “가족이 위험에 처해있다는데 AI 복제 음성을 구별하는 것은 거의 불가능하다면서 이는 상당히 무서운 것”라고 말했다.

Hermann은 페이스북 등 SNS에 올려진 동영상의 목소리를 추출해 복제하는 것은 쉬운 일이라고 했다. 그는 엄마조차도 자식의 음성이 복제된 AI의 소리를 구별하기 어려울 거라고 말했다.

메릴랜드주에 거주하는 Gerry Scally는 지난달에 손자라는 사람에게 전화를 받았다면서 “ 목소리가 손자 Noah와 완전히 똑같았다. 무서웠다.”라고 말했다. Scally는 당시 손자에게 무슨 일이 있었는지 물었고 그 목소리는 “자동차 사고가 나서 코가 부러졌다.”고 대답했다. 그때 Scally는 손자의 목소리에서 뭔가 이상한 것을 느꼈다. 자신의 손자보다 더 느리게 말한 것이다. 그래서 그는 바로 전화를 끊었고, 다행히 사기를 당하지는 않았다. 손자 Noah는 당시 학교에 있었다. 

Hermann은 보이스 피싱 기술이 더욱 정교해졌고 대부분 해외에서 전화를 한다고 전하며 주의를 당부했다. 

FTC는 가족이 전화해 돈을 요구할 경우 우선 보이스 피싱으로 의심하고 전화를 끊은 뒤 다시 가족의 번호로 콜백을 해볼 것을 권고한다. 연락이 안되면 주변 친구들을 통해 연락을 시도하고 경찰에 신고할 것을 권하고 있다.

 

▶▶▶ 당신이 보는 것도 가짜다!

생성형 인공지능(AI) 덕분에 정보 습득 시간이 획기적으로 줄고 업무 효율도 높아진 면이 있다. 그런데 이게 다가 아니다. AI가 조작한 이미지에 속아 분란이 일어나거나 주식시장이 타격을 받는 일이 벌어지기도 한다.

검소와 청렴의 아이콘인 교황이 이탈리아 명품 브랜드 패딩을 걸치고 거리를 활보하는 이미지, 미국 국방부 청사가 대규모 폭발로 검은 연기에 휩싸인 이미지,  우크라이나 대통령이 항복을 선언하고 병사들은 흰색 깃발을 흔드는 이미지, 가짜라서 더 유명해진 이 이미지들은 모두 AI 작품이다. 자세히 뜯어 보면 교황의 손 모양이 어색하다든지 하는 AI 이미지에서 발견되는 일반적 결함이 눈에 띈다. 하지만 얼핏 봐선 감쪽같이 속기 십상이다.

미 국방부 청사 근처에서 폭발 사고가 난 장면이 담긴 사진은 조악했지만 파장은 엄청났다. 이 ‘가짜 사진’에 세계 최대 자본시장이 휘청거렸다. S&P500지수는 당일 오전 한때 0.3% 내렸고, 안전 자산인 미 국채 금리는 하락했다.

뉴욕 맨해튼에서 경찰에게 체포되는 도널드 트럼프 전 대통령의 AI 가짜 사진이 SNS에서 논란이 됐기도 했다.

이미지뿐 아니라 AI 딥페이크 기술을 이용한 영상은 진짜 여부의 구분이 더 어렵다. 

지난 6월 러시아를 발칵 뒤짚었던 블라디미르 푸틴 러시아 대통령의 계엄령 선포 연설 영상이 바로 딥페이크를 활용한 가짜 영상이였다. 당시 러시아 TV와 라디오 긴급 방송에서는 마치 푸틴 대통령이 대국민 연설을 하는 듯한 목소리가 흘러나왔다. 일부 지역에서는 딥페이크로 만든 영상도 함께 퍼졌다.

방송에서 ‘푸틴 대통령’은 우크라이나군이 나토(북대서양조약기구)의 지원을 받아 러시아를 침공했다며 벨고로드·브랸스크·쿠르스크 지역에 계엄령을 선포한다고 했다. 크렘린궁은 즉시 해당 방송이 “해킹 공격의 결과”라며 진화에 나섰다.

또한 얼마전 민주당 소속 힐러리 클린턴 전 미국 국무장관이 온라인 영상을 통해 공화당 대선 후보 출마를 선언한 드샌티스 플로리다 주지사에 대해 깜짝 지지 선언을 했다. 온라인에서 확산된 이 영상도 AI 딥페이크 기술로 만들어진 가짜 영상이었다. 또 다른 딥페이크 영상에서는 조 바이든 대통령이 트랜스젠더 여성을 향해 “당신은 결코 진짜 여자가 될 수 없다”고 폭언을 퍼붓는 모습이 담겼다. 다가오는 미국 대선을 앞두고 조작된 딥페이크 영상이 온라인에서 이미 활개를 치고 있는 것이다.

글로벌 싱크탱크인 브루킹스연구소의 수석 연구원 대럴 웨스트는 “유권자들이 진짜와 가짜를 구별하는 것은 매우 어려울 것”이라며 “트럼프나 바이든 지지자들이 이 기술을 이용해 상대를 더 나빠 보이게 하는 걸 상상해보라”고 말했다.

이렇게 AI가 만들어내는 가상 세계가 갈수록 정교해지면서 실제와 가상에 대한 구별이 사실상 불가능해진 것 아니냐는 우려도 쏟아지고 있다.

 

▶▶▶ 당신이 읽는 것도 가짜다!

가짜 이미지와 영상 뿐이 아니다. 텍스트 쪽에선 가짜 정보가 더 빠르게, 더 많이 생성되고 있다. 뉴스 신뢰도 평가회사인 미국 ‘뉴스가드’에 따르면 뉴스 사이트처럼 보이는 웹사이트 150여 개가 전적으로 AI가 작성한 것으로 보이는 텍스트로 채워지고 있다. 오래전 사건을 방금 일어난 것처럼 쓰거나 살아 있는 사람을 ‘사망했다’고 전하는 글도 수두룩하다. 이런 가짜 정보에 속지 않으려면 내가 접한 정보가 어디까지 진실이고 어디까지 가짜인지 항상 의심하고 검증해야 한다. 특히 신뢰할 수 있는 전통 미디어가 아닌 페이스북이나 카톡 등 SNS로 접한 정보는 무조건적으로 믿지 말고 분별해야 한다.

퓰리처상 수상자인 제임스 볼 전 가디언 기자는 가짜뉴스의 폐해를 경고한 책 <개소리는 어떻게 세상을 정복했는가>에서 영상이나 이미지로 된 가짜뉴스가 SNS에서 월등히 많이 공유된다고 지적했다. 

그는 책에서 거짓말은 진실과 권위를 염두에 두고 전략적으로 행하는 것이라면, 개소리는 진실도 거짓도 신경 쓰지 않고 마구 내뱉는 허구의 담론이라며, SNS에서 떠도는 가짜뉴스를 “거짓말보다 강력한 ‘개소리(bullshit)’”라고 규정했다. 또한 중요한 건 개소리가 사람들의 일상, 주요 국가 정책, 지도자 선정에 이르기까지 삶의 모든 중요한 영역을 파고드는 점이라고 지적했다. 

그는 가짜뉴스가 득세하는 것은 언론을 자처하는 1인 인터넷 매체 등 가짜 미디어나 SNS와 같은 뉴 미디어 때문이기도 하지만 상당수 대형 전통 매체가 가짜뉴스에 맞서려는 노력을 하지 않는 것도 문제라고 지적했다. 

뉴스를 소비하는 대중들이 SNS에 도는 기사의 제목조차 읽지 않고 공유하는 경우도 위험하다. 진실에 무심한 태도, 음모론에 쉽게 넘어가는 심리, 생각을 바꾸는 것에 대한 반발심 등도 ‘개소리’가 세상을 정복하도록 만드는 것들이라고 그는 책에서 이야기했다.

듣고 싶은 것만 듣다보면 판단력은 마비되며, 분별하지 않는 사고의 게으름은 진실과 거짓을 혼동하게 해 결국 나를 속이게 된다. AI 기술이 발전할수록 AI가 만들어내는 가짜뉴스 역시 더 정교해지고 혼란을 키울 것이다. 우리는 AI 시대를 현명하게 맞이할 준비가 되어 있는가?

리빙트렌드 편집팀 



Warning: Use of undefined constant php - assumed 'php' (this will throw an Error in a future version of PHP) in /home/dk/dalkora/theme/basic/skin/board/false9_thumb_trend/view.skin.php on line 177

댓글목록

등록된 댓글이 없습니다.