의견 딥 페이크로부터 우리를 보호 할 수있는 것이 있습니까? | 벤 딕슨

딥 페이크로부터 우리를 보호 할 수있는 것이 있습니까? | 벤 딕슨

차례:

비디오: 불황 속 다들 가상화~가상화 도대체 ëê¸¸ëž˜ (십월 2024)

비디오: 불황 속 다들 가상화~가상화 도대체 ëê¸¸ëž˜ (십월 2024)
Anonim

2017 년 말 마더 보드는 비디오에서 얼굴을 바꿀 수있는 AI 기술에 대해보고했습니다. 당시에는 딥 페이크 (deepfakes)라고 불리는이 기술은 조잡하고 거친 결과를 만들어 냈으며 주로 유명인과 정치인이 등장하는 가짜 포르노 비디오를 만드는 데 사용되었습니다.

2 년 후, 이 기술은 엄청나게 발전했으며 육안으로는 탐지하기가 어렵습니다. 가짜 뉴스와 함께 위조 된 비디오는 특히 2020 년 대선이 가까워 질수록 국가 안보 문제가되었습니다.

딥 페이크가 등장한 이후 여러 조직과 회사에서 AI 변조 비디오를 탐지하는 기술을 개발했습니다. 그러나 언젠가는 딥 페이크 기술이 감지되지 않을까 염려가 있습니다.

서리 대학교 (University of Surrey)의 연구원들은 문제를 해결할 수있는 솔루션을 개발했습니다. 허위를 감지하는 대신 무엇이 사실인지 증명할 것입니다. 다가오는 CVPR (Computer Vision and Pattern Recognition) 컨퍼런스에서 발표 될 예정인 Archangel이라는 기술은 AI와 블록 체인을 사용하여 확실한 비디오를 위해 변조 방지 디지털 지문을 생성하고 등록합니다. 지문은 온라인으로 배포되거나 텔레비전에서 방송되는 미디어의 유효성을 확인하기위한 참조 지점으로 사용될 수 있습니다.

AI를 사용하여 비디오 서명

이진 문서의 진위를 증명하는 고전적인 방법은 디지털 서명을 사용하는 것입니다. 게시자는 SHA256, MD5 또는 Blowfish와 같은 암호화 알고리즘을 통해 문서를 실행합니다.이 알고리즘은 해당 파일의 내용을 나타내는 디지털 바이트가되는 짧은 바이트 문자열 인 "해시"를 생성합니다. 언제든지 해싱 알고리즘을 통해 동일한 파일을 실행하면 내용이 변경되지 않은 경우 동일한 해시가 생성됩니다.

해시는 소스 파일의 이진 구조 변경에 매우 민감합니다. 해시 된 파일에서 단일 바이트를 수정하고 알고리즘을 통해 다시 실행하면 완전히 다른 결과가 생성됩니다.

서리 대학교의 컴퓨터 비전 교수이자 Archangel의 프로젝트 책임자 인 John Collomosse에 따르면 해시는 해시가 텍스트 파일과 응용 프로그램에서 잘 작동하지만 비디오에 대한 과제를 다른 형식으로 저장할 수 있다고합니다.

"우리는 비디오가 압축되는 코덱에 관계없이 서명이 동일하기를 원했습니다."라고 Collomosse는 말합니다. "비디오를 가져 와서 MPEG-2에서 MPEG-4로 변환하면 해당 파일의 길이가 완전히 달라지고 비트가 완전히 변경되어 다른 해시가 생성됩니다. 콘텐츠 인식 해싱 알고리즘이었습니다."

이 문제를 해결하기 위해 Collomosse와 그의 동료는 비디오에 포함 된 내용에 민감한 심층 신경망을 개발했습니다. 딥 뉴럴 네트워크는 방대한 양의 예제 분석을 통해 행동을 개발하는 AI 구성 유형입니다. 흥미롭게도 신경 네트워크는 심층 가짜의 핵심 기술입니다.

딥 페이크를 만들 때 개발자는 피사체의 얼굴 사진을 네트워크에 공급합니다. 신경망은 얼굴의 특징을 배우고 충분한 훈련을 통해 다른 비디오에서 얼굴을 찾아서 얼굴을 바꿀 수있게됩니다.

대천사의 신경망은 그것이 지문 인 비디오에 대해 훈련됩니다. Collomosse는“네트워크는 기본 비트와 바이트가 아니라 비디오의 내용을보고있다.

교육 후 네트워크를 통해 새 비디오를 실행하면 형식에 관계없이 소스 비디오와 동일한 내용이 포함 된 비디오의 유효성을 검사하고 다른 비디오이거나 변조되거나 편집 된 경우이를 거부합니다.

Collomosse에 따르면이 기술은 공간 및 시간 변조를 모두 감지 할 수 있습니다. 공간 변조는 딥 페이크에서 수행 된 얼굴 스와핑 편집과 같은 개별 프레임에 대한 변경입니다.

그러나 딥 페이크가 비디오를 조작 할 수있는 유일한 방법은 아닙니다. 덜 논의되었지만 똑같이 위험한 것은 프레임 시퀀스와 비디오의 속도와 지속 시간에 의도적으로 변경 된 것입니다. 낸시 펠로시 (Nancy Pelosi) 하원 의원이 최근에 널리 보급 된 변조 된 비디오는 딥 페이크를 사용하지 않았지만 간단한 편집 기법을 신중하게 사용하여 혼란스러워 보이도록 제작되었습니다.

"우리가 감지 할 수있는 변조 유형 중 하나는 비디오의 짧은 세그먼트를 제거하는 것입니다. 이들은 일시적인 변조입니다. 최대 3 초의 변조를 감지 할 수 있습니다. 따라서 비디오가 몇 시간 길어 3 개만 제거하면 Collomosse는 덧붙여 Archangel은 Pelosi 비디오에서와 같이 원본 비디오의 속도 변화를 감지 할 것이라고 덧붙였다.

블록 체인에 지문 등록

Archangel 프로젝트의 두 번째 구성 요소는 새로운 정보를 저장할 수는 있지만 변경이 불가능한 변경 방지 데이터베이스 인 블록 체인으로, 비디오 아카이브에 이상적이며, 등록 된 비디오는 변경하지 않습니다.

블록 체인 기술은 Bitcoin 및 Ether과 같은 디지털 통화의 기초가됩니다. 여러 독립 당사자가 유지 관리하는 디지털 원장입니다. 대부분의 당사자는 블록 체인의 변경 사항에 동의해야하므로 단일 당사자가 원장과 일방적으로 간섭 할 수 없습니다.

참가자의 50 % 이상이 충돌하면 기술적으로 블록 체인의 내용을 공격하고 변경할 수 있습니다. 그러나 실제로는 블록 체인이 다양한 목표와 관심사를 가진 많은 독립 당사자에 의해 유지 관리되는 경우에는 매우 어렵습니다.

대천사의 블록 체인은 공개 블록 체인과 조금 다릅니다. 첫째, 암호 화폐를 생성하지 않고 아카이브의 각 비디오에 대해 식별자, 콘텐츠 인식 지문 및 검증기 신경망의 이진 해시 만 저장합니다 (블록 체인은 많은 양의 데이터를 저장하기에 적합하지 않기 때문입니다) 비디오 자체와 신경망은 오프 체인으로 저장됩니다.

또한 권한이 있거나 "개인"블록 체인입니다. 이는 모든 사람이 새로운 거래를 기록 할 수있는 비트 코인 블록 체인과 달리 허가 된 당사자 만 대천사 블록 체인에 새로운 기록을 저장할 수 있음을 의미합니다.

대천사는 현재 영국, 에스토니아, 노르웨이, 호주 및 미국의 국가 정부 기록 보관소 네트워크에서 시험을 받고 있습니다. 새로운 정보를 저장하려면 모든 관련 국가가 추가 내용을 인수해야합니다. 그러나 참여국의 국가 기록 보관소 만이 기록을 추가 할 권리가 있지만, 다른 모든 사람들은 블록 체인에 대한 읽기 권한을 가지며이를 사용하여 다른 비디오를 기록 보관소에서 확인할 수 있습니다.

  • AI 및 기계 학습 악용, 딥 페이크, 탐지가 더 어렵다 AI 및 기계 학습 악용, 딥 페이크, 탐지하기 어렵다
  • Deepfake 비디오는 여기 있으며 준비되지 않았습니다 Deepfake 비디오는 여기 있으며 준비되지 않았습니다
  • Adobe의 새로운 AI가 Photoshopped 얼굴을 감지합니다 Adobe의 새로운 AI가 Photoshopped 얼굴을 감지합니다

"이것은 공공재를 위해 블록 체인을 적용한 것"이라고 Collomosse는 말합니다. "제 생각에, 블록 체인을 합리적으로 사용하는 것은 반드시 서로를 신뢰하지 않는 독립적 인 조직을 가지고 있지만 상호 신뢰라는이 집단 목표에 관심을 갖고있는 것입니다. 그리고 우리가하고자하는 것은 "이 기술을 사용하여 청렴성을 무너 뜨릴 수 있도록 전 세계 정부의 국가 기록 보관소를 확보하십시오."

위조 된 비디오를 제작하는 것이 더 쉽고 빠르며 접근성이 높아 지므로 모든 사람들은 비디오 보관소, 특히 정부의 무결성을 보장하기 위해 모든 도움을 필요로합니다.

Collomosse는“심장 마법은 거의 무기 경쟁과 같다고 생각한다. "사람들이 점점 더 설득력있는 딥 페이크를 제작하고 있기 때문에 언젠가는이를 탐지하는 것이 불가능해질 수 있습니다. 이것이 바로 비디오의 출처를 증명하는 것입니다."

딥 페이크로부터 우리를 보호 할 수있는 것이 있습니까? | 벤 딕슨