ご意見 ディープフェイクから私たちを保護できるものはありますか? | ベン・ディクソン

ディープフェイクから私たちを保護できるものはありますか? | ベン・ディクソン

目次:

ビデオ: 【真・if戦記】プーシャヤンスタ戦【ボス戦】 (十一月 2024)

ビデオ: 【真・if戦記】プーシャヤンスタ戦【ボス戦】 (十一月 2024)
Anonim

2017年後半に、Motherboardは、ビデオの顔を交換できるAIテクノロジーについて報告しました。 当時、後にディープフェイクと呼ばれるこの技術は粗雑で粗い結果を生み出し、主に有名人や政治家をフィーチャーした偽のポルノビデオを作成するために使用されていました。

2年後、この技術は飛躍的に進歩し、肉眼で検出するのが難しくなりました。 偽のニュースとともに、特に2020年の大統領選挙が近づいているため、偽造されたビデオは国家安全保障上の懸念になっています。

ディープフェイクが出現して以来、いくつかの組織や企業はAIが改ざんされたビデオを検出する技術を開発してきました。 しかし、いつの日か、ディープフェイクテクノロジーが検出できなくなるのではないかという懸念があります。

サリー大学の研究者は、問題を解決するソリューションを開発しました。何が間違っているかを検出する代わりに、何が真実かを証明します。 Archangelと呼ばれる技術は、コンピュータビジョンとパターン認識(CVPR)の次の会議で発表される予定で、AIとブロックチェーンを使用して、本物のビデオの改ざん防止デジタルフィンガープリントを作成および登録します。 指紋は、オンラインで配信されているメディアやテレビで放送されているメディアの有効性を検証するための基準点として使用できます。

AIを使用してビデオに署名する

バイナリドキュメントの信頼性を証明する古典的な方法は、デジタル署名を使用することです。 発行者は、SHA256、MD5、Blowfishな​​どの暗号化アルゴリズムを使用してドキュメントを実行します。これにより、ファイルのコンテンツを表す短い文字列である「ハッシュ」が生成され、デジタル署名になります。 ハッシュアルゴリズムを介して同じファイルを実行すると、コンテンツが変更されていない場合は常に同じハッシュが生成されます。

ハッシュは、ソースファイルのバイナリ構造の変更に非常に敏感です。 ハッシュファイルの1バイトを変更し、アルゴリズムを再度実行すると、まったく異なる結果が生成されます。

しかし、ハッシュはテキストファイルやアプリケーションには適していますが、サリー大学のコンピュータービジョン教授であり、ArchangelのプロジェクトリーダーであるJohn Collomosse氏によると、ハッシュはさまざまな形式で保存できるビデオに課題をもたらします。

「私たちは、ビデオが圧縮されているコーデックに関係なく、署名が同じであることを望みました」とCollomosseは言います。 「ビデオを取得して、たとえばMPEG-2からMPEG-4に変換すると、そのファイルは完全に異なる長さになり、ビットが完全に変更され、異なるハッシュが生成されます。必要なものコンテンツに対応したハッシュアルゴリズムでした。」

この問題を解決するために、Collomosseと彼の同僚は、ビデオに含まれるコンテンツに敏感なディープニューラルネットワークを開発しました。 ディープニューラルネットワークは、膨大な量の例の分析を通じてその動作を開発するAI構築の一種です。 興味深いことに、ニューラルネットワークはディープフェイクの中心となるテクノロジーでもあります。

ディープフェイクを作成するとき、開発者は対象の顔の写真をネットワークに送ります。 ニューラルネットワークは顔の特徴を学習し、十分なトレーニングを行うことで、他のビデオで顔を見つけて対象の顔と交換できるようになります。

Archangelのニューラルネットワークは、フィンガープリントのビデオでトレーニングされています。 「ネットワークは、基礎となるビットやバイトではなく、ビデオのコンテンツを見ています」と、Collomosseは言います。

トレーニング後、ネットワークを介して新しいビデオを実行すると、フォーマットに関係なくソースビデオと同じコンテンツが含まれている場合に検証され、異なるビデオであるか、改ざんまたは編集されている場合は拒否されます。

Collomosseによると、この技術は空間的および時間的な改ざんの両方を検出できます。 空間の改ざんは、ディープフェイクで行われた顔の入れ替えの編集など、個々のフレームに加えられた変更です。

しかし、ビデオを改ざんできるのはディープフェイクだけではありません。 あまり議論されていませんが、同様に危険なのは、フレームのシーケンス、およびビデオの速度と持続時間に意図的に加えられた変更です。 下院議長ナンシー・ペロシの最近広範に改ざんされた改ざんされたビデオは、ディープフェイクを使用しませんでしたが、彼女を混乱させる単純な編集技術を注意深く使用して作成されました。

「検出できる改ざんの形式の1つは、ビデオの短いセグメントを削除することです。これらは一時的な改ざんです。最大3秒の改ざんを検出できます。したがって、ビデオが数時間で、そのビデオの数秒で、それを検出することができます」とCollomosse氏は言います。Archoangelは、Pelosiビデオで行われたように、元のビデオの速度に加えられた変更も検出します。

ブロックチェーンへの指紋の登録

Archangelプロジェクトの2番目のコンポーネントは、新しい情報を保存できるが変更できない改ざん防止データベースであるブロックチェーンです。ビデオアーカイブは、登録されたビデオに変更を加えないため、理想的です。

ブロックチェーン技術は、ビットコインやイーサーなどのデジタル通貨の根底にあります。 これは、複数の独立した当事者によって維持されるデジタル台帳です。 大半の当事者は、ブロックチェーンに加えられた変更に同意する必要があります。これにより、単一の当事者が一方的に元帳を調整することができなくなります。

参加者の50%以上が共謀すると、ブロックチェーンのコンテンツを攻撃して変更することが技術的に可能です。 しかし、実際には、特にさまざまな目標や関心を持つ多くの独立した当事者によってブロックチェーンが維持されている場合、それは非常に困難です。

Archangelのブロックチェーンは、パブリックブロックチェーンとは少し異なります。 まず、暗号通貨を生成せず、アーカイブ内の各ビデオの識別子、コンテンツ認識フィンガープリント、および検証者ニューラルネットワークのバイナリハッシュのみを保存します(ブロックチェーンは大量のデータを保存するのに適していないため、ビデオ自体とニューラルネットワークはオフチェーンで保存されます)。

また、許可されたまたは「プライベート」なブロックチェーンです。 つまり、誰もが新しいトランザクションを記録できるビットコインブロックチェーンとは異なり、許可された当事者のみがArchangelブロックチェーンに新しいレコードを保存できます。

Archangelは現在、英国、エストニア、ノルウェー、オーストラリア、および米国の中央政府アーカイブのネットワークで試行されています。新しい情報を保存するには、関係するすべての国が追加を引き受ける必要があります。 ただし、参加国の国立アーカイブのみがレコードを追加する権利を持っていますが、他のすべてのユーザーはブロックチェーンへの読み取りアクセス権を持ち、それを使用してアーカイブに対して他のビデオを検証できます。

  • AIと機械学習のエクスプロイト、Deepfakes、検出が困難AIと機械学習のエクスプロイト、Deepfakes、検出が困難
  • Deepfakeビデオが登場し、準備ができていないDeepfakeビデオが登場し、準備ができていない
  • Adobeの新しいAIがPhotoshoppedの顔を検出Adobeの新しいAIがPhotoshoppedの顔を検出

「これは公共財のためのブロックチェーンのアプリケーションです」と、Collomosseは言います。 「私の考えでは、ブロックチェーンの唯一の合理的な使用法は、必ずしも相互に信頼しているわけではないが、相互信頼というこの集合的な目標にこの既得権を持っている独立組織がある場合です。世界中の政府の国立公文書館を保護し、この技術を使用してその完全性を保証できるようにします。」

偽造ビデオの作成がより簡単に、より速く、よりアクセスしやすくなっているため、誰もがビデオアーカイブ(特に政府)の整合性を確保するために必要なすべての支援を必要としています。

「ディープフェイクは軍拡競争に似ていると思う」とコロモセは言う。 「人々はますます説得力のあるディープフェイクを作成しているため、いつかそれらを検出することが不可能になるかもしれません。だからこそ、ビデオの出所を証明しようとするのが最善です。」

ディープフェイクから私たちを保護できるものはありますか? | ベン・ディクソン