사업 AI 및 머신 러닝 악용, 딥 페이크

AI 및 머신 러닝 악용, 딥 페이크

차례:

비디오: Hì i í ì i í i i ì í ì (십월 2024)

비디오: Hì i í ì i í i i ì í ì (십월 2024)
Anonim

다음 대통령 선거 캠페인 시즌으로 향할 때 가짜 온라인 비디오가 인공 지능 (AI)과 기계 학습 (ML)을 사용함으로써 발생할 수있는 잠재적 위험에주의해야합니다. 사람들은 AI 소프트웨어를 사용하여 ML 알고리즘을 사용하여 얼굴 스왑을 수행하여 누군가가 말하지 않았거나 자신이 말하지 않은 말을했다는 착각을 일으키는 Deepfake ("딥 러닝 및 가짜"의 줄임말) 비디오를 만들 수 있습니다. 다시하지 마십시오. 엔터테인먼트에서 정치, 기업 세계에 이르기까지 다양한 분야에서 Deepfake 비디오가 표시됩니다. 비디오가 엉뚱한 가짜 메시지로 선거에 부당하게 영향을 미칠뿐만 아니라 실제로 제품 출시 나 인수를 발표 한 CEO를 보여 주면 개인적으로 당혹감을 불러 일으키거나 오해의 소지가있는 브랜드 메시지를 유발할 수 있습니다.

딥 페이크는 "Generative Adversarial Networks"또는 GAN이라고하는 AI 범주의 일부입니다. 여기서 두 개의 신경망이 경쟁하여 실제처럼 보이는 사진이나 비디오를 만듭니다. GAN은 가짜 비디오와 같은 새로운 데이터 세트를 생성하는 생성기와 ML 알고리즘을 사용하여 실제 비디오의 데이터를 비교하고 비교하는 판별기로 구성됩니다. 생성자는 판별자가 데이터가 새로운 것을 알 수 없을 때까지 이전 비디오와 가짜 비디오를 합성하려고합니다.

McAfee의 CTO (Chief Technology Officer) 부사장 Steve Grobman은 3 월 샌프란시스코에서 개최 된 RSA Conference 2019에서 지적한 것처럼 사진의 발명 이후 가짜 사진이있었습니다. 그는 사진 변경은 Adobe Photoshop과 같은 응용 프로그램에서 수행 할 수있는 간단한 작업이라고 말했습니다. 그러나 이제 이러한 유형의 고급 편집 기능도 비디오로 이동하고 있으며 기능이 뛰어나고 쉽게 액세스 할 수있는 소프트웨어 도구를 사용하여 수행하고 있습니다.

딥 페이크 생성 방법

AI 개념을 이해하는 것이 도움이되지만 심층적 인 비디오를 제작하기 위해 데이터 과학자 일 필요는 없습니다. Grobman에 따르면 온라인으로 몇 가지 지침을 따르는 것과 관련이 있습니다. RSA 컨퍼런스 2019 (위의 비디오 참조)에서 McAfee의 수석 데이터 과학자이자 수석 책임 엔지니어 인 Celeste Fralick 박사와 함께 심층적 인 비디오를 공개했습니다. 심층 비디오는이 기술이 제시하는 위협을 보여줍니다. Grobman과 Fralick은 비디오에서 어떤 위험한 일이 대중에게 메시지가 실제라고 생각하도록 오도 할 수 있다고 말하는 방법을 보여주었습니다.

비디오를 제작하기 위해 Grobman과 Fralick은 deepfake 소프트웨어를 다운로드했습니다. 그런 다음 2017 년 미 상원 의원 앞에서 증언하는 그 로브 만 비디오를 가져와 그릭 만 입에 Fralick의 입을 겹쳐 놓았습니다.

Fralick은 무대에서 RSA 청중에게“저는 무료로 제공되는 공개 의견을 사용하여 ML 모델을 만들고 훈련 시켰습니다. Fralick은 딥 페이크 비디오가 사회 개발 및 정보 전쟁에 사용될 수 있다고 말했습니다.

Grobman과 Fralick은 Deepfake 비디오를 만들기 위해 ML 알고리즘과 사진을 사용하여 비디오의 얼굴을 바꾸는 FakeApp이라는 Reddit 사용자 도구를 사용했습니다. RSA 프레젠테이션 중에 Grobman은 다음 단계를 설명했습니다. "동영상을 스틸 이미지로 분할하고 얼굴을 추출한 다음 정렬하여 정리하고 Instagram에서 정리했습니다."

맥아피 팀은 파이썬 스크립트를 통해 입 움직임을 만들어 Fralick의 연설이 Grobman의 입과 일치하게했습니다. 그런 다음 사용자 지정 스크립트를 작성해야했습니다. Grobman은 설득력있는 딥 페이크를 만드는 데있어 어려움은 성별, 나이, 피부색과 같은 특성이 일치하지 않는 경우라고 말합니다.

그와 Fralick은 최종 AI 알고리즘을 사용하여 상원 의원 앞에서 Fralick의 연설로 증언하는 Grobman의 이미지를 일치 시켰습니다. Grobman은 이러한 ML 알고리즘을 훈련시키는 데 12 시간이 걸렸다 고 덧붙였다.

McAfee는 2019 RSA 컨퍼런스에서 심층적 인 비디오를 제작하는 데 필요한 단계를 설명했습니다. FlickApp이라는 딥 페이크 소프트웨어와 ML 모델 교육을 사용하여 Frabick의 연설로 Grobman의 비디오를 변경했습니다. (이미지 제공: McAfee).

딥 페이크의 결과

해커가 제작 한 딥 페이크 비디오는 많은 문제를 야기 할 가능성이 있습니다. 정부 관리로부터 허위 오보를 퍼뜨리는 유명 인사에 대한 정보는 실제로 경쟁 업체의 주식 시장 지위를 손상시키는 회사에 있지 않은 비디오에 포함되어있는 것을 부끄럽게 여깁니다. 이러한 문제를 인식하고, 9 월 국회의원들은 미국 국가 정보국 국장 인 Daniel Coats에게 딥 페이크의 위협에 대한 검토를 요청하는 서한을 보냈습니다. 이 서한은 러시아와 같은 국가가 소셜 미디어에서 딥 페이크를 사용하여 허위 정보를 유포 할 수 있다고 경고했다. 12 월, 국회의원들은 2018 년 악성 악성 가짜 금지법 (Malicious Deep Fake Prohibition Act)을 도입하여 "가상 비디오 기록"과 관련하여 사기를 금지했습니다. 청구서가 통과되는지 여부는 여전히 남아 있습니다.

언급했듯이 유명인은 Gal Gadot의 경우와 마찬가지로 포르노 스타의 얼굴에 얼굴이 겹쳐진 비디오로 인해 당황 할 수 있습니다. 또는 CEO가 제품 뉴스를 발표하고 회사의 주식을 가라 앉힌다 고 가정 해보십시오. 보안 전문가는 ML을 사용하여 이러한 유형의 공격을 탐지 할 수 있지만 시간 내에 탐지되지 않으면 국가 나 브랜드에 불필요한 피해를 줄 수 있습니다.

Forrester Research의 수석 애널리스트 인 체이스 커닝햄 (Chase Cunningham) 박사는 "딥 페이크를 사용하면 자신이하고있는 일을 알고 있고 누가 대상을 정할 것인지 아는 경우 확실한 비디오를 얻을 수있다"고 말했다.. 그는 이러한 메시지를 링크드 인이나 트위터에 배포하거나 봇 형식을 사용하는 경우 "많은 노력없이 총 가짜 비디오를 기반으로 회사의 주식을 파쇄 할 수있다"고 덧붙였다.

딥 페이크 비디오를 통해 소비자는 제품이 할 수없는 일을 할 수 있다고 믿도록 속일 수 있습니다. 커닝햄은 주요 자동차 제조업체의 CEO가 가짜 비디오에서 더 이상 가스 구동 차량을 제조하지 않고 해당 메시지를 트위터 나 링크드 인에 그 메시지를 퍼뜨릴 것이라고 말한 경우, 그 행동으로 인해 브랜드가 쉽게 손상 될 수 있다고 언급했다.

커닝햄은 "제 조사에서 흥미롭게도 사람들은 헤드 라인과 비디오를 기반으로 37 초 안에 결정을 내릴 수있다"면서 "37 초보다 긴 비디오를 얻을 수 있다면 사람들이 결정을 내릴 수 있다고 상상할 수있다"고 말했다. 사실이든 아니든 그리고 그것은 끔찍하다."

소셜 미디어는 딥 페이크 비디오가 바이러스에 감염 될 수있는 취약한 장소이므로 소셜 미디어 사이트는 딥 페이크의 위협에 대항하기 위해 적극적으로 노력하고 있습니다. 예를 들어 Facebook은 조작 된 사진, 오디오 및 비디오를 확인할 수있는 엔지니어링 팀을 배치합니다. Facebook (및 기타 소셜 미디어 회사)은 소프트웨어를 사용하는 것 외에도 수동으로 딥 페이크를 찾기 위해 사람들을 고용합니다.

페이스 북 담당자는 성명에서“우리는 조작 된 미디어에 대항하여 심층 공격에 대처하기위한 지속적인 노력을 확대했다. "우리는 모든 형태의 조작 된 미디어의 지속적인 출현이 사회에 실질적인 도전을 제시한다는 것을 알고 있습니다. 그래서 우리는 새로운 기술 솔루션에 투자하고, 학술 연구를 통해 배우고, 업계의 다른 사람들과 협력하여 딥 페이크 및 다른 형태의 조작 된 미디어를 이해하고 있습니다."

모든 딥 페이크가 나쁜 것은 아닙니다

우리가 McAfee의 교육용 딥 페이크 비디오와 심야 TV의 코미디 딥 페이크 비디오에서 보았 듯이 일부 딥 페이크 비디오가 반드시 나쁘지는 않습니다. 실제로 정치는 딥 페이크 비디오의 실제 위험을 노출시킬 수 있지만 엔터테인먼트 산업은 종종 딥 페이크 비디오의 더 가벼운 측면을 보여줍니다.

예를 들어 최근 스티븐 콜버트 (Stephen Colbert)와의 최근 에피소드에서 배우 Steve Buscemi의 얼굴이 여배우 Jennifer Lawrence의 몸에 겹쳐지는 재미있는 딥 페이크 비디오가 나타났습니다. 코미디언 조던 필러 (John Jordan Peeler)는 버락 오바마 (Barack Obama) 전 대통령의 비디오를 자신의 목소리로 대치했다. 이와 같은 유머 깊은 딥 페이크 비디오도 온라인으로 등장했으며, 트럼프 대통령의 얼굴은 사람이 말하는 독일 앙겔라 메르켈 총리의 얼굴에 겹쳐져 있습니다.

다시, 딥 페이크 비디오가 풍자적이거나 유머러스 한 목적으로 사용되거나 단순히 엔터테인먼트로 사용되는 경우 소셜 미디어 플랫폼 및 영화 제작사에서도이를 허용하거나 사용할 수 있습니다. 예를 들어 Facebook은 플랫폼에서 이러한 유형의 콘텐츠를 허용하고 Lucasfilm은 "Rogue One: A Star Wars Story"에서 여배우 Ingvild Deila의 몸에 젊은 캐리 피셔를 등장시키기 위해 디지털 레크리에이션 유형을 사용했습니다.

McAfee의 Grobman은 딥 페이크 뒤에 숨은 기술 중 일부는 배우의 안전을 유지하기 위해 영화 제작에서 스턴트 복식과 잘 활용된다고 지적했습니다. Grobman은 "컨텍스트는 모든 것입니다. 코미디를 목적으로하고 그것이 현실이 아니라는 것이 분명하다면, 그것은 기술을 합법적으로 사용하는 것"이라고 Grobman은 말했습니다. "모든 종류의 다른 목적에 사용될 수 있음을 인식하는 것이 중요합니다."

(이미지 크레디트: Statista)

Deepfake 비디오를 감지하는 방법

가짜 비디오를 탐지하는 방법을 실험하는 유일한 보안 회사는 McAfee만이 아닙니다. 시만텍의 보안 전문가 인 Vijay Thaware와 소프트웨어 개발 엔지니어 인 Niranjan Agnihotri는 Black Hat 2018에서 "AI Gone Rogue: 훼손을 유발하기 전에 훼손 방지"라는 제목의 논문에서 다음과 같은 툴을 개발했다고 밝혔습니다. Google FaceNet을 기반으로 한 가짜 비디오. Google FaceNet은 Google 연구원이 얼굴 확인 및 인식을 돕기 위해 개발 한 신경망 아키텍처입니다. 사용자는 특정 이미지에서 FaceNet 모델을 학습 한 후 테스트 중에 자신의 신원을 확인할 수 있습니다.

딥 페이크 비디오의 확산을 막기 위해 인간과 AI의 상호 작용에 중점을 둔 비영리 조직인 AI Foundation은 "Reality Defender"라는 소프트웨어를 제공하여 가짜 컨텐츠를 발견합니다. AI를 사용하여 이미지와 비디오를 변경했는지 확인할 수 있습니다. 그렇다면 "정직한 AI 워터 마크"를 받게됩니다.

  • 머신 러닝 비즈니스 가이드 머신 러닝 비즈니스 가이드
  • PornHub, 트위터 금지 'Deepfake'AI 수정 포르노 PornHub, 트위터 금지 'Deepfake'AI 수정 포르노
  • 최신 Deepfake 기술은 Bruno Mars처럼 춤을 추게 할 것입니다 최신 Deepfake 기술은 Bruno Mars처럼 춤을 추게 할 것입니다

또 다른 전략은 Zero Trust의 개념을 염두에 두는 것입니다. 즉 "신뢰하지 말고 항상 확인하십시오"는 IT 전문가가 액세스 권한을 부여하기 전에 모든 사용자가 합법적인지 확인해야한다는 사이버 보안 모토입니다. 비디오 콘텐츠의 유효성에 대한 회의론이 필요합니다. 또한 디지털 분석 기능이있는 소프트웨어가 가짜 컨텐츠를 발견하기를 원할 것입니다.

딥 페이크 찾기

앞으로는 비디오 콘텐츠에 대해 더욱 신중해야하며 잘못 사용하는 경우 사회에 미칠 수있는 위험을 염두에 두어야합니다. Grobman은 "단기적으로 사람들은 비디오와 오디오가 제작 될 수 있다는 것을보고 인식하는 것에 대해 회의적이어야한다"고 지적했다.

따라서 다음 선거 시즌으로 향할 때 시청하는 정치 동영상에 대해 회의적인 시각을 유지하고 회사 지도자가 등장하는 모든 동영상을 신뢰하지 마십시오. 당신이 듣는 것이 실제로 말한 것이 아닐 수도 있고, 잘못된 가짜 비디오는 우리 사회에 실제로 피해를 줄 수 있습니다.

AI 및 머신 러닝 악용, 딥 페이크