目次:
ビデオ: Kiesza - Hideaway (Official Music Video) (十一月 2024)
次の大統領選挙キャンペーンシーズンに向かうとき、人工知能(AI)と機械学習(ML)の使用によって偽のオンラインビデオがもたらす潜在的な危険に注意してください。 AIソフトウェアを使用して、人々はディープフェイク(「ディープラーニングとフェイク」の略)ビデオを作成できます。このビデオでは、MLアルゴリズムを使用してフェイススワップを実行し、誰かが言っていないことを言ったか、自分が誰かであるかのような錯覚を作成しますしないでください。 ディープフェイクビデオは、エンターテイメントから政治、企業の世界に至るまで、さまざまな分野で登場しています。 ディープフェイク動画は、虚偽のメッセージで選挙に不当に影響を与えるだけでなく、例えば、CEOが製品の発売や実際には起こらなかった買収を発表した場合、個人的な恥ずかしさや誤解を招くブランドメッセージを引き起こす可能性があります。
ディープフェイクは、「Generative Adversarial Networks」またはGANと呼ばれるAIのカテゴリの一部であり、2つのニューラルネットワークが本物のように見える写真やビデオを作成するために競います。 GANは、偽のビデオのような新しいデータセットを作成するジェネレーターと、MLアルゴリズムを使用して実際のビデオのデータを合成および比較する弁別器で構成されます。 ジェネレーターは、識別器がデータが新しいことを認識できないまで、古いビデオと偽のビデオを合成しようとし続けます。
マカフィーの上級副社長兼最高技術責任者(CTO)であるスティーブグロブマンは、3月にサンフランシスコで開催されたRSA Conference 2019で指摘したように、写真が発明されて以来、偽の写真が出回っています。 写真の変更は、Adobe Photoshopなどのアプリケーションで実行できる簡単なタスクだと彼は言いました。 しかし、現在、これらの種類の高度な編集機能もビデオに移行しており、高度に機能し、簡単にアクセスできるソフトウェアツールを使用してそれを行っています。
ディープフェイクの作成方法
AIの概念を理解することは役立ちますが、ディープフェイクビデオを作成するためにデータサイエンティストである必要はありません。 Grobmanによると、オンラインでいくつかの指示に従うだけです。 RSA Conference 2019(上記のビデオを参照)で、彼はマカフィーのチーフデータサイエンティスト兼シニアプリンシパルエンジニアであるセレステフリック博士とともにディープフェイクビデオを公開しました。 ディープフェイクビデオは、このテクノロジーがもたらす脅威を示しています。 グロブマンとフラリックは、ビデオで公務員が何か危険なことを言って、そのメッセージが本物だと誤解する可能性があることを示しました。
ビデオを作成するために、グロブマンとフラリックはディープフェイクソフトウェアをダウンロードしました。 その後、2017年にグロブマンが米国上院で証言するビデオを撮影し、フラリックの口をグロブマンの口に重ねました。
「MLのモデルを作成してトレーニングするために、自由に利用できるパブリックコメントを使用しました。これにより、口から出てくる言葉でディープフェイクビデオを開発することができました」とFralickはステージ上でRSAの聴衆に語った。 Fralickはさらに、ディープフェイクビデオは社会的搾取や情報戦争に使用できると述べました。
ディープフェイクビデオを作成するために、GlobmanとFralickは、Redditユーザーが開発したFakeAppというツールを使用しました。このツールは、MLアルゴリズムと写真を使用してビデオの顔を交換します。 RSAのプレゼンテーションで、Grobmanは次の手順を説明しました。 「ビデオを静止画像に分割し、顔を抽出し、Instagramで並べ替えてクリーンアップしました。」
Pythonスクリプトにより、マカフィーチームは、Frlickのスピーチをグロブマンの口に合わせるための口の動きを構築できました。 次に、カスタムスクリプトを作成する必要がありました。 説得力のあるディープフェイクを作成する際の課題は、性別、年齢、肌の色調などの特性が一致しない場合です、とグロブマンは言いました。
その後、彼とFralickは最終的なAIアルゴリズムを使用して、上院議員の前で証言したGrobmanの画像とFralickの演説を一致させました。 Grobmanは、これらのMLアルゴリズムのトレーニングには12時間かかったと付け加えました。
マカフィーは、2019 RSA Conferenceで示されたディープフェイクビデオを作成するために必要な手順の概要を説明しました。 FakeAppと呼ばれるディープフェイクソフトウェアとMLモデルのトレーニングを使用して、Frolickの音声でGrobmanのビデオを変更しました。 (画像クレジット:McAfee)。
ディープフェイクの結果
ハッカーが作成したディープフェイクビデオは、多くの問題を引き起こす可能性があります。政府関係者から、競合他社の株式市場を損なう企業に実際にはいなかったビデオに含まれていることで恥ずかしくなる有名人に偽りの情報を広めているものすべて。 これらの問題に気づいて、9月に議員は、米国情報局長のダニエル・コートに手紙を送り、ディープフェイクがもたらす脅威のレビューを要求しました。 この手紙は、ロシアなどの国々がソーシャルメディアでディープフェイクを使用して偽情報を広めることができると警告した。 12月、議員は、2018年の悪意のあるディープフェイク禁止法を導入して、ディープフェイクを指す「視聴覚記録」に関連する不正を禁止しました。 法案が可決されるかどうかはまだ不明です。
前述のように、有名人は、ギャルガドットの場合のように、ポルノスターの顔に自分の顔が重ねられているビデオに戸惑うことがあります。 あるいは、CEOが製品ニュースを発表し、会社の株を沈めたと思われます。 セキュリティの専門家はMLを使用してこれらの種類の攻撃を検出できますが、時間内に検出されない場合、国またはブランドに不必要な損害をもたらす可能性があります。
「ディープフェイクを使用すると、自分が何をしているか、誰をターゲットにするかがわかっている場合、説得力のあるビデオを作成してブランドに大きな損害を与えることができます」とForrester ResearchのプリンシパルアナリストであるDr. 。 彼は、これらのメッセージをLinkedInやTwitterで配信したり、ボットフォームを利用したりすると、「手間をかけずに偽のビデオに基づいて会社の株をつぶすことができる」と付け加えた。
ディープフェイクビデオを通じて、消費者は製品ができないことをできると信じ込ませられる可能性があります。 カニングハムは、大手自動車メーカーのCEOが偽のビデオで、同社がガソリン車を製造しなくなると言った場合、そのビデオでTwitterまたはLinkedInにそのメッセージを広めると、その行動はブランドを簡単に損なう可能性があると指摘しました。
「私の研究から興味深いことに、人々は見出しとビデオに基づいて37秒で決定を下します」とカニンガム氏は言いました。「37秒よりも長く続くビデオを手に入れることができれば、事実かどうか。 それは恐ろしいことです。」
ソーシャルメディアは、ディープフェイクビデオがバイラルになりやすい脆弱な場所であるため、ソーシャルメディアサイトはディープフェイクの脅威と戦うために積極的に取り組んでいます。 たとえば、Facebookは、操作された写真、オーディオ、ビデオを見つけることができるエンジニアリングチームを展開しています。 Facebook(およびその他のソーシャルメディア企業)は、ソフトウェアの使用に加えて、人を雇って手動でディープフェイクを探すようにしています。
Facebookの代表者は声明で、「操作されたメディアと戦うための継続的な取り組みを拡大して、ディープフェイクへの取り組みを含めました」と述べました。 「あらゆる形態のマニピュレートされたメディアの継続的な出現が社会に真の課題をもたらすことを知っています。だからこそ、新しい技術ソリューションに投資し、学術研究から学び、業界の他の人々と協力してディープフェイクや他のマニピュレートされたメディアを理解しています」
すべてのディープフェイクが悪いわけではありません
McAfeeによる教育用のディープフェイクビデオと深夜のテレビでのコメディーのディープフェイクビデオで見たように、一部のディープフェイクビデオは必ずしも悪いものではありません。 実際、政治はディープフェイクビデオの本当の危険を露呈する可能性がありますが、エンターテインメント業界は、ディープフェイクビデオの軽い側面を示すことがよくあります。
たとえば、 スティーブンコルバート と のレイトショーの 最近のエピソードでは 、 俳優のスティーブブシェミの顔が女優ジェニファーローレンスの身体に重ねられた面白いディープフェイクビデオが示されました。 別のケースでは、コメディアンのジョーダン・ピーラーが、元大統領のバラク・オバマが自分の声で話すビデオを置き換えました。 このようなユーモラスなディープフェイクビデオもオンラインで公開されており、トランプ大統領の顔が、人が話すときにアンゲラメルケル首相の顔に重ねられています。
繰り返しますが、ディープフェイクビデオが風刺的またはユーモラスな目的で、または単に娯楽として使用される場合、ソーシャルメディアプラットフォーム、さらには映画制作会社でさえ、それらを許可または使用します。 たとえば、Facebookはプラットフォームでこのタイプのコンテンツを許可し、Lucasfilmはデジタルレクリエーションのタイプを使用して、女優のイングヴィルドデイラの身体に若いキャリーフィッシャーを「ローグワン:スターウォーズストーリー」で紹介しました。
McAfeeのGrobmanは、俳優の安全を確保するために、映画制作でディープフェイクの背後にある技術の一部をスタントダブルと併用すると効果的であると指摘しました。 「コンテキストがすべてです。コメディ目的であり、それが本物ではないことが明らかな場合、それはテクノロジーの合法的な使用です」とグロブマンは言いました。 「あらゆる種類の異なる目的に使用できることを認識することが重要です。」
Deepfakeビデオを検出する方法
偽のビデオを検出する方法を試しているセキュリティ会社はマカフィーだけではありません。 Black Hat 2018で配信された「AIゴーンローグ:脅威を引き起こす前にディープフェイクを根絶する」と題されたシマンテックのセキュリティエキスパート、セキュリティレスポンスリードVijay Thawareとソフトウェア開発エンジニアNiranjan Agnihotriの2人は、発見するツールを作成したと書いていますGoogle FaceNetに基づいた偽の動画。 Google FaceNetは、顔の検証と認識を支援するためにGoogleの研究者が開発したニューラルネットワークアーキテクチャです。 ユーザーは特定の画像でFaceNetモデルをトレーニングし、その後のテスト中にIDを検証できます。
ディープフェイクビデオの拡散を阻止するために、人間とAIの相互作用に焦点を当てている非営利団体AI Foundationは、「Reality Defender」と呼ばれるソフトウェアを提供して、フェイクコンテンツを見つけます。 画像や動画をスキャンして、AIを使用して変更されているかどうかを確認できます。 持っている場合、「正直なAI透かし」を取得します。
- 機械学習のビジネスガイド機械学習のビジネスガイド
- PornHub、Twitter禁止「ディープフェイク」AI変更ポルノPornHub、Twitter禁止「ディープフェイク」AI変更ポルノ
- 最新のDeepfake Techは、ブルーノ・マーズのように踊ります最新のDeepfake Techは、ブルーノ・マーズのように踊ります
もう1つの戦略は、ゼロトラストの概念を念頭に置くことです。つまり、「信頼せず、常に検証する」という意味です。ITプロフェッショナルは、アクセス権限を付与する前にすべてのユーザーが正当であることを確認する必要があることを意味するサイバーセキュリティモットー ビデオコンテンツの妥当性について懐疑的なままであることが必要です。 また、デジタル分析機能を備えたソフトウェアが偽のコンテンツを見つけることも必要になります。
ディープフェイクを探して
今後は、動画コンテンツにもっと注意を払う必要があり、誤用された場合に動画コンテンツが社会に与える危険性に留意する必要があります。 Grobmanが述べたように、「近い将来、人々はビデオとオーディオを作成できることを見て認識していることに懐疑的になる必要があります。」
ですから、私たちが次の選挙シーズンに向かうとき、あなたが見ている政治的なビデオに懐疑的な目を向けてください、そして、企業のリーダーをフィーチャーしたすべてのビデオを信用しないでください。 あなたが聞くことは実際に言われたことではないかもしれないし、誤解を招くディープフェイク動画は私たちの社会を本当に傷つける可能性があるからです。