ご意見 AI業界の倫理的計算の年

AI業界の倫理的計算の年

目次:

ビデオ: my 2th clip (10月 2024)

ビデオ: my 2th clip (10月 2024)
Anonim

ディープニューラルネットワークが2012年に世界で最も重要な画像認識競争に勝って以来、誰もが人工知能が解き放つことができることに興奮しています。 しかし、新しいAI技術とアプリケーションを開発するための競争では、考えられるマイナスの影響が後部座席を取りました。

私たちは現在、AI倫理についての意識を高める方向にシフトしています。 2018年に、AI開発者は、作成物の潜在的な影響についてより意識的になりました。 多くのエンジニア、研究者、開発者は、彼らが無実の人々の生活に害を与えたり、損害を与えたりする技術を構築しないことを明らかにし、彼らの会社を経営しました。

法執行機関における顔の認識

過去には、顔認識アプリケーションの作成は困難で、リソースを大量に消費し、エラーを起こしやすいものでした。 しかし、コンピュータービジョン(コンピューターが画像やビデオのコンテンツを認識できるようにするAIのサブセット)の進歩により、顔認識アプリケーションの作成がはるかに簡単になり、誰でもアクセスできるようになりました。

Microsoft、Amazon、IBMなどの大規模なハイテク企業は、あらゆる開発者が顔認識技術をソフトウェアに統合できるようにするクラウドベースのサービスの提供を開始しました。 これにより、IDの保護と認証、スマートホームセキュリティ、小売など、さまざまなドメインの多くの新しいユースケースとアプリケーションのロックが解除されました。 しかし、プライバシー権活動家は、誤用の可能性について懸念を表明しました。

2018年5月、アメリカ市民自由連合は、Amazonが法執行機関および政府機関にリアルタイムのビデオ分析技術であるRekognitionを販売していることを明らかにしました。 ACLUによると、少なくとも3つの州の警察は、監視ビデオフィードの顔認識にRekognitionを使用していました。

「Rekognitionを使用すると、政府は誰でも識別と追跡を自動化するシステムを構築できます。たとえば、警察のボディカメラに顔認識が装備されている場合、警官の透明性と説明責任を目的としたデバイスは、パブリック」ACLUは警告しました。 「Rekognitionのような顔認識システムは、大量監視を自動化することでこの自由を脅かし、現在の政治情勢ですでに不当に標的にされているコミュニティに特定の脅威をもたらします。 」

ACLUの懸念は、6月に会社のCEOであるジェフ・ベゾスに手紙を書き、Rekognitionを法執行機関に売るのをやめるように要求したAmazonの従業員によって反映されました。 「私たちの会社は監視ビジネスであってはなりません。警察ビジネスであってはなりません。疎外された人々を監視し、抑圧する人々を支援するビジネスであってはなりません。」

10月、匿名のAmazonスタッフは、少なくとも450人の従業員がBezosや他の役員にRekognitionの警察への販売を停止するよう求める別の手紙に署名したことを明らかにしました。 「コミュニティを犠牲にして強力な顧客のサブセットから利益を得ることはできません。ビジネスの人件費から目をそらすことはできません。私たちは、国内であれ他の人であれ、 " と言いました。

Googleの軍事AIプロジェクトのフォールアウト

Amazonがこの内部の反発に対処している間、GoogleはProject Mavenと呼ばれる米軍のAIを開発する契約をめぐる同様の闘争を経験していました。

Googleは、国防総省がドローンビデオ映像を処理するコンピュータービジョンテクノロジーの開発を支援したと伝えられています。 ドローンによって毎日記録されるビデオ映像の量は、人間のアナリストがレビューするには多すぎるため、ペンタゴンはプロセスの一部を自動化することを望んでいました。

タスクの物議を醸す性質を認めて、Googleのスポークスマンは、ビデオフィード内のオブジェクトを検出するための、機械学習プラットフォームであるTensorFlowのAPIのみを提供すると規定しました。 また、Googleは、テクノロジーの倫理的側面に対処するためのポリシーとセーフガードを開発していると強調しました。

しかし、Project MavenはGoogleの従業員とは相容れない状態でした。数十人のエンジニアを含む3, 000人がすぐにプログラムの終了を要求するスンダピチャイCEOへの公開書簡に署名しました。

「グーグルは戦争に関与すべきではないと考えている」と書簡は読んだ。 同社は「グーグルもその請負業者も戦争技術を構築しないという明確なポリシーを起草し、公表し、実施する」よう求めた。

また、Googleの従業員は、雇用主が将来その評判と才能を競う能力を危険にさらしていると警告しました。 「私たちの技術の道徳的責任を第三者に外注することはできません」とGoogle社員は強調しました。

その直後に、90人の学者と研究者が署名した請願書は、Googleの幹部に軍事技術の作業を中止するよう呼びかけました。 署名者は、グーグルの仕事が「自動化されたターゲット認識と自律兵器システム」の舞台を設定すると警告した。 彼らはまた、技術が発展するにつれて、「人間の監督や意味のある人間の制御なしに、自律ドローンが自動的に殺すことを許可することから少し離れたところに立つ」と警告した。

緊張が高まると、Googleの従業員数人が抗議して辞任しました。

技術リーダーの対応

プレッシャーの下、Googleは6月、2019年に期限が切れた後、Project Mavenの防衛省との契約を更新しないと宣言しました。

ブログの投稿で、CEO Sundar Pichai(下の写真)は、AIテクノロジーの開発と販売を管理する一連の倫理原則を宣言しました。 ピチャイによると、同社は今後、社会全体の利益となるプロジェクトを検討し、既存の不公平なバイアスを強化したり、公共の安全性を損なうAIの開発を避けます。

ピチャイはまた、彼の会社は人権規範に違反する技術に取り組むことはないと明言した。

AmazonのBezosは、Rekognitionに対する怒りにそれほどazされていませんでした。 「我々はDoDを引き続きサポートしていくべきであり、そうすべきだと思う」とベゾスは10月にサンフランシスコで開催された技術会議で語った。 「上級指導者の仕事の1つは、たとえ人気がなくても正しい判断を下すことです。」

ベゾスはまた、技術コミュニティが軍隊を支援する必要性を強調した。 「大手ハイテク企業が国防総省に背を向けるなら、この国は問題を抱えているだろう」と彼は言った。

ICEの業務に対する批判に直面したマイクロソフトの社長Brad Smithは、7月にブログ記事を公開し、政府機関に機密技術を販売するための慎重なアプローチを求めました。 スミスは、法執行機関や軍隊に顔認識サービスを販売することを除外しませんでしたが、技術部門のより良い規制と透明性の必要性を強調しました。

  • MITがAI倫理研究プログラムに10億ドルを支出MITがAI倫理研究プログラムに10億ドルを支出
  • AIは本当に私たちの言語を話しますか? AIは本当に私たちの言語を話しますか?
  • 中国の止められないAI工場を壊す中国の止められないAI工場を壊す

「議会の代表者は、この新しい技術を評価するのに必要なツールを備えています。そのすべての影響。ろうそくの時代から人工知能の時代まで私たちを見てきた憲法のチェックとバランスの恩恵を受けます。過去何回も、新しい発明が法の支配に従って民主的自由に役立つことを保証する必要があります」とスミスは書いています。

2018年、キラーロボットと大量失業の遠い脅威が、AIのより直接的な倫理的および社会的影響に関する懸念に取って代わりました。 多くの点で、これらの開発は、AIアルゴリズムが重要なタスクでより顕著になるにつれて、業界が成熟していることを示しています。 しかし、アルゴリズムと自動化が私たちの日常生活に深く根付くにつれて、より多くの議論が生じます。

AI業界の倫理的計算の年