目次:
ビデオ: А+А ПРЯМОЙ ЭФИР (十一月 2024)
2016年、ボストン大学とマイクロソフトの研究者は、人工知能アルゴリズムに取り組んでおり、私たちが毎日使用している最も人気のある重要なサービスの根底にあるテクノロジーの人種差別主義と性差別主義の傾向を発見しました。 啓示は、人工知能が私たち人間がする性別、人種、文化的偏見に苦しんでいないという従来の知恵に反しました。
研究者は、大量のテキストを分析することで異なる単語間の相関と関連性を見つけるAIの一種である単語埋め込みアルゴリズムの研究中にこの発見を行いました。 たとえば、訓練された単語埋め込みアルゴリズムは、花の単語が気持ちのいい気持ちと密接に関係していることを理解できます。 より実用的なレベルでは、ワード埋め込みは、「コンピュータープログラミング」という用語が「C ++」、「JavaScript」、および「オブジェクト指向の分析と設計」に密接に関連していることを理解しています。 この機能を再開スキャンアプリケーションに統合すると、雇用主は少ない労力で適格な候補者を見つけることができます。 検索エンジンでは、検索語に意味的に関連するコンテンツを表示することにより、より良い結果を提供できます。
BUとMicrosoftの研究者は、「コンピュータープログラマー」を男性の代名詞に、「主婦」を女性の代名詞に関連付けるなど、単語埋め込みアルゴリズムに問題のあるバイアスがあることを発見しました。 彼らが見つけた調査結果は、「男性はコンピュータープログラマーに、女性は主婦に」というタイトルの研究論文に掲載されました。 は、AIの中立性の神話を解き明かし、アルゴリズムの偏りに光を当てるいくつかのレポートの1つでした。
アルゴリズムバイアスの起源
機械学習と深層学習アルゴリズムは、現代のAIを活用したほとんどのソフトウェアの基礎となっています。 事前定義され検証可能なルールに基づいて動作する従来のソフトウェアとは対照的に、ディープラーニングは独自のルールを作成し、例によって学習します。
たとえば、ディープラーニングに基づいて画像認識アプリケーションを作成するには、プログラマーはラベル付きデータ(この場合、含まれるオブジェクトの名前でタグ付けされた写真)を渡すことでアルゴリズムを「トレーニング」します。 アルゴリズムが十分な例を取り込むと、同様にラベル付けされたデータ間で共通のパターンを収集し、その情報を使用してラベル付けされていないサンプルを分類できます。
このメカニズムにより、ルールベースのソフトウェアでは事実上不可能だった多くのタスクをディープラーニングで実行できます。 しかし、それはまた、 深層学習ソフトウェアが隠れたまたは明白なバイアスを継承できることを意味します。
「AIアルゴリズムには本質的な偏りはありません」と、ボストン大学の電気コンピューター工学科で教え、語埋め込みアルゴリズムに取り組んだVenkatesh Saligrama教授は言います。 「彼らは決定的な機能を持ち、彼らが訓練するデータに既に存在する傾向を拾います。」
ボストン大学の研究者によってテストされた単語埋め込みアルゴリズムは、Googleニュース、ウィキペディア、およびソーシャルバイアスが深く埋め込まれている他のオンラインソースからの数十万の記事でトレーニングされました。 例として、仲間の文化がテクノロジー産業を支配しているため、男性の名前はテクノロジー関連の仕事でより頻繁に出てきます。そしてそれは男性をプログラミングやソフトウェア工学などの仕事に関連付けるアルゴリズムを導きます。
「アルゴリズムには、正しいことと間違っていることを区別する人間の心の力はありません」と、BUの博士課程の最終学年であるTolga Bolukbasi氏は付け加えます。 倫理的規範に反して行動することを決定した場合でも、人間は行動の道徳を判断できます。 しかし、アルゴリズムにとって、データは究極の決定要因です。
SaligramaとBolukbasiは、このバイアスについて警告を発した最初の人ではありませんでした。 IBM、マイクロソフト、トロント大学の研究者は、2011年に発表された論文でアルゴリズム差別を防止する必要性を強調しました。当時、アルゴリズムバイアスは難解な懸念事項であり、ディープラーニングはまだ主流になっていませんでした。 しかし、今日では、アルゴリズムの偏りは、ニュースを読んだり、友達を見つけたり、オンラインショッピングをしたり、NetflixやYouTubeでビデオを見たりするなど、私たちが行う多くのことにすでに影響を与えています。
アルゴリズムバイアスの影響
2015年、Googleの写真アプリのアルゴリズムが2人の黒人をゴリラとしてタグ付けした後、Googleは謝罪しなければなりませんでした。おそらく、トレーニングデータセットに黒人の写真が十分になかったためです。 2016年、AIが審査した美人コンテストの44人の勝者のうち、ほぼ全員が白人で、少数はアジア人で、1人だけが黒い肌でした。 繰り返しになりますが、その理由は、アルゴリズムのほとんどが白人の写真で訓練されていたためです。
Googleフォト、みんなめちゃくちゃ。 私の友人はゴリラではありません。 pic.twitter.com/SMkMCsNVX4
-ジャッカルシネは、ここではあまり反応していません。 DM(@jackyalcine)2015年6月29日
最近、IBMとMicrosoftの顔分析サービスのテストにより、会社のアルゴリズムは肌の薄い男性の性別を検出するのにほぼ完璧であることがわかりましたが、肌の黒い女性の写真を提示するとしばしば誤解されました。
これらの事件はおそらく無視できるほどの損害を引き起こしたが、ヘルスケア、法執行機関、採用などのより重要な分野のAIアルゴリズムについても同じことは言えない。 2016年、ProPublicaの調査により、COMPAS(犯罪者の再犯のリスクを評価するAI主導のソフトウェア)が有色人種に対して偏っていることが判明しました。 一部の州の裁判官はCOMPASを使用して誰が自由に歩き、誰が刑務所に留まるかを決定するため、この発見は特に懸念されていました。
別のケースでは、ディープラーニングアルゴリズムを使用したGoogleの広告プラットフォームの研究では、男性よりも高収入の仕事の広告が女性よりも頻繁に表示されました。 別の調査では、LinkedInの求人広告で同様の問題が見つかりました。 さらに別の人は、偏った雇用アルゴリズムがアフリカ系アメリカ人の名前を持つ人よりもヨーロッパ系アメリカ人の名前の人に面接の招待を送る可能性が50パーセント高いことを示しました。
ローンの承認、信用格付け、奨学金などの分野も同様の脅威に直面しています。
アルゴリズムの偏りは、社会の偏りを増幅する可能性があるため、さらに心配です。 AIは冷たく、偏見や偏見のない数学的計算であるという幻想の下で、人間は疑問を持たずにアルゴリズムの判断を信頼する傾向があります。
Wired UKとのインタビューで、エディンバラネイピア大学の犯罪学講師Andrew Wooffは、「時間の制約があり、リソースを集中的に使用する」ポリシングの世界により、法執行官がアルゴリズムの決定に過度に依存する可能性があると述べました。 「警察官が彼ら自身の意思決定プロセスよりもシステムに依存している状況を想像できます」と彼は言いました。 「部分的には、何かがうまくいかないときに決定を正当化できるようにするためかもしれません。」
偏りのあるアルゴリズムに依存すると、フィードバックループが作成されます。より偏りのあるデータを作成する決定を下し、アルゴリズムが将来分析し、訓練します。
この種のことは、FacebookやTwitterなどのソーシャルメディアネットワークで既に行われています。 ニュースフィードを実行するアルゴリズムは、「フィルターバブル」を作成します。これは、ユーザーの好みやバイアスに適合するコンテンツを表示します。 これにより、反対意見に対する彼らの寛容性が低下する可能性があり、政治的および社会的格差をくさびで追い払うことで社会をさらに分極化する可能性もあります。
「アルゴリズムのバイアスはどのグループにも影響を与える可能性があります」とマイクロソフトの主任研究員であるJenn Wortman Vaughanは言います。 「データで過小評価されているグループは、特に危険にさらされる可能性があります。」
テクノロジー業界の女性に対する風土差別など、バイアスですでに知られているドメインでは、AIアルゴリズムがそれらのバイアスを強調し、十分に表されていないグループをさらに疎外する可能性があります。
健康はもう1つの重要な領域です、とWortmanは指摘します。 「医療診断に使用されている機械学習アルゴリズムが1つの母集団からのデータでトレーニングされ、その結果、他の母集団でうまく機能しない場合、深刻な問題を引き起こす可能性があります」と彼女は言います。
バイアスは、より微妙な方法でも有害になる可能性があります。 「昨年、娘を散髪に連れて行く予定で、インスピレーションを得るために「幼児の散髪」の画像をオンラインで検索しました」とWortman氏は言います。 しかし、返された画像はほぼすべてが白人の子供たちで、主にストレートの髪で、さらに驚くべきことに、主に男の子でした、と彼女は気づきました。
専門家は、この現象を「代表的な害」と呼びます。テクノロジーがステレオタイプを強化したり、特定のグループを縮小したりするときです。 「この種のバイアスの正確な影響を定量化または測定することは困難ですが、それが重要ではないという意味ではありません」とWortman氏は言います。
AIアルゴリズムからのバイアスの削除
AIバイアスのますます重要な意味合いは、いくつかの組織および政府機関の注目を集めており、さまざまな分野でのAIの使用を取り巻く倫理的および社会的問題に対処するためのいくつかの積極的な措置が取られています。
製品がAIアルゴリズムに大きく依存しているMicrosoftは、3年前に、公平性、説明責任、透明性、AIの倫理(FATE)と呼ばれる研究プロジェクトを立ち上げました。バイアス。
AI審査の美人コンテストのように、AIアルゴリズムの偏った行動の原因を見つけて修正することは、トレーニングデータセットの写真をチェックして変更するのと同じくらい簡単かもしれません。 しかし、ボストン大学の研究者が調査した単語埋め込みアルゴリズムなど、他のケースでは、トレーニングデータにバイアスがより微妙に浸透しています。
マイクロソフトの研究者Adam Kalaiが参加したBUチームは、性別の分類に基づいて単語の埋め込みを分類し、潜在的に偏った類似性を特定する方法を開発しました。 しかし、彼らは最終決定を下さず、アソシエーションを削除するかどうかを決定するAmazonのデータ関連タスクのオンラインマーケットプレイスであるMechanical Turkで、疑わしいアソシエーションを10人ずつ実行しました。
「プロセスに独自のバイアスを挿入したくありませんでした」と、BUの教授兼研究者であるSaligramaは言います。 「問題のある関連を発見するためのツールを提供したばかりです。人間が最終決定を下しました。」
最近の論文で、Kalaiと他の研究者は、すべての人に同じ尺度を使用するのではなく、別々のアルゴリズムを使用して異なるグループの人々を分類することを提案しました。 この方法は、既存のデータが特定のグループに有利に偏っているドメインで効果的であることが証明できます。 たとえば、プログラミングの仕事の女性応募者を評価するアルゴリズムは、既存のバイアスに深く影響される広範なデータセットを使用する代わりに、そのグループに最適な基準を使用します。
MicrosoftのWortmanは、AI業界における包摂性を、アルゴリズムの偏りと戦うために必要なステップと考えています。 「特定の人口統計だけでなく、AIシステムをすべての人に役立てたい場合、企業はAIに取り組むために多様なチームを雇う必要があります」と彼女は言います。
2006年、Wortmanは機械学習(WiML)の設立を支援しました。これは、AI業界で勉強し働く女性が、産業界や学界のシニア女性と会い、ネットワークを作り、意見交換し、パネルディスカッションに参加できるワークショップを毎年開催しています。 同様の取り組みは、別のマイクロソフトの研究者であるTimnit Gebruによって設立された新しいBlack in AI Workshopです。
Boston UniversityのBolukbasiは、AIアルゴリズムが問題を解決する方法を変更することも提案しています。 「アルゴリズムは、目的を最大化するルールセットを選択します。特定の入力と出力のペアに対して同じ結論セットに到達する方法はたくさんあります」と彼は言います。 「人間のための多肢選択式テストの例を見てみましょう。間違った思考プロセスで正しい答えに到達するかもしれませんが、それでも同じスコアを得ることができます。高品質のテストは、社会的制約を認識するアルゴリズムを作成することは、この例の類似点と見なすことができますが(正確なものではありません)、間違ったルールセットを学習すると目標にペナルティが科せられます。トピック。"
AIの不透明度は公平性を複雑にします
AIアルゴリズムをより公平にするためのもう1つの課題は、「ブラックボックス」現象です。 多くの場合、企業はアルゴリズムを慎重に保護しています。たとえば、犯罪予測ソフトウェアであるCOMPASの製造元であるNorthpointe Inc.は、独自のアルゴリズムの開示を拒否しています。 COMPASの内部の仕組みを知っているのはプログラマーだけであり、裁判官が判断を下すためにそれを使用している裁判官ではありません。
企業の機密性は別として、AIアルゴリズムは非常に複雑になり、その決定の背後にある理由とメカニズムが作成者さえも排除することがあります。 英国では、ダーラム警察はAIシステムHARTを使用して、容疑者が2年以内にさらなる犯罪を犯すリスクが低い、中程度、または高いかどうかを判断します。 しかし、HARTの2017年の学術レビューでは、「不透明度を避けるのは難しいようです」と述べています。 これは、システムが使用する膨大な量と多様なデータが原因の1つであり、その決定の背後にある理由を分析することを難しくしています。 「これらの詳細は一般に公開されていますが、完全に理解するには膨大な時間と労力が必要です」と同紙は述べています。
いくつかの企業や組織は、出力品質を犠牲にすることなく機械学習アルゴリズムの動作をより理解しやすくするためのイニシアチブであるGlassBoxを立ち上げたGoogleなど、AIに透明性をもたらす取り組みを主導しています。 国防高等研究計画局(DARPA)は、軍隊でのAIの使用を監督し、AIアルゴリズムがその決定を説明できるようにするための努力にも資金を提供しています。
他の場合には、バイアスに対処する際に人間の判断が重要になります。 既存の人種的および社会的な人間のバイアスがHARTのアルゴリズムに忍び込むのを防ぐために、ダーラムコンスタブラリーはスタッフのメンバーに無意識のバイアスに関する認識セッションを提供しました。 警察はまた、人種的特徴などのデータポイントを削除するための措置を講じています。
人間の責任
別の観点から、AIアルゴリズムは私たち自身の偏見や偏見を反映する機会を提供できます。 オックスフォード大学のデータ倫理とアルゴリズムの研究者であるサンドラ・ワクター氏は、「世界は偏っている、歴史的データは偏っているので、偏った結果を受け取ることは驚くことではない」と語っ た 。
Wachterは、ロンドンのAlan Turing Instituteとオックスフォード大学の研究チームの一部であり、AIアルゴリズムによる差別の可能性を調査するための規制と機関を求める論文を発表しました。
また、 ガーディアン に話しかけた の は、バース大学のコンピューター科学者であり、アルゴリズムバイアスに関する研究論文の共著者であるジョアンナブライソンは、「多くの人がAIが偏見を持っていることを示していると言っています。 「偏見があり、AIはそれを学んでいます。」
2016年、MicrosoftはTayを立ち上げました。Tayは、人間から学び、スマートな会話を行うことになっているTwitterボットです。 しかし、Tayのローンチから24時間以内に、MicrosoftはTwitterユーザーとの会話から拾い上げた人種差別主義者のコメントを吐き出した後、それをシャットダウンする必要がありました。 おそらくこれは、私たち人間がアルゴリズムのバイアス現象の出現と伝播における私たち自身の役割を認め、その効果を取り消すための集団的措置を講じることが過去の時であることを思い出させるでしょう。
「これは非常に複雑な作業ですが、社会として恥ずかしがらないようにすることは責任です」とWachter氏は言います。