目次:
ビデオ: Урок #4. Надстрочные знаки. Les accents. (十一月 2024)
3月12日、 MIT Technology Review は、次のようなストーリーを実行しました。「2023年であり、自動運転車がようやく私たちの街をナビゲートしました。大規模なメディア報道。注目を集める訴訟が発生する可能性が高いが、どの法律が適用されるべきか?」
事件はまだ調査中ですが、その後の騒ぎは、人工知能を重要なタスクや意思決定にうまく統合するのにどれだけの距離があるかを示しています。
多くの場合、問題はAIにあるのではなく、私たちの期待と理解にあります。 Wired によると、昨年米国だけで約4万人が交通事故で死亡し、そのうち6, 000人が歩行者でした。 しかし、Uber事件のように見出しを作った人はごくわずかしかいませんでした。
Uberのクラッシュがこのような騒ぎを引き起こした理由の1つは、まだ開発中であっても、一般に新しい技術に対する期待が高いことです。 純粋な数学がAIアルゴリズムを推進しているという幻想の下で、私たちは彼らの決定を信頼する傾向があり、ミスをするとショックを受けます。
自動運転車のホイールの後ろにいる安全ドライバーでさえ、警戒を怠ります。 Uber事件の映像は、ドライバーが気を散らしていることを示し、クラッシュが発生する数秒前を見下ろしています。
2016年、車両がトラックに衝突した後、オートパイロットモードで動作するテスラSモデルのドライバーが死亡しました。 調査の結果、ドライバーは衝突時にハリー・ポッターの映画を見ていた可能性があります。
完璧への期待は高く、失望は強力です。 批評家は、事件後、Uberの自動運転車プロジェクト全体を迅速に疑問視しました。 同社はその後、自動運転車のテストを一時的に停止しました。
AIは人間ではない
クラッシュに続いた批判の中には、人間の運転手が事件を簡単に回避できたというものがありました。
「茂みから飛び降りていたわけではありませんでした。彼女は複数の車線にわたって明確な進歩を遂げていました。
彼女は正しいです。 経験豊富な人間のドライバーが彼女を見つけた可能性があります。 しかし、AIアルゴリズムは人間ではありません。
自動運転車に見られるディープラーニングアルゴリズムは、多数の例を使用して、ドメインのルールを「学習」します。 彼らは外出先で時間を過ごすときに、収集した情報を分類し、さまざまな状況に対処することを学びます。 しかし、これは必ずしも彼らが人間のドライバーと同じ意思決定プロセスを使用することを意味しません。 そのため、ある状況では人間よりも優れたパフォーマンスを発揮し、人間にとって些細なことに失敗する場合があります。
完璧な例は、数百万のラベル付き写真を分析することで画像を認識することを学習する画像分類アルゴリズムです。 長年にわたって、画像分類は非常に効率的になり、多くの設定で人間よりも優れています。 ただし、これはアルゴリズムが人間と同じように画像のコンテキストを理解するという意味ではありません。
たとえば、マイクロソフトとスタンフォード大学の専門家による調査では、白猫の画像で訓練されたディープラーニングアルゴリズムは、白犬の写真が猫を表し、人間の子供が簡単に回避できる間違いであると確信していることがわかりました。 また、悪名高いケースでは、Googleの画像分類アルゴリズムは、肌の色が暗い人を誤ってゴリラと分類しました。
これらは「エッジケース」と呼ばれ、通常はデータの不足のためにAIアルゴリズムが処理するようにトレーニングされていない状況です。 Uberの事故はまだ調査中ですが、一部のAI専門家は、それが別のエッジケースである可能性を示唆しています。
ディープラーニングには、危機的な状況に適用する前に克服すべき多くの課題があります。 しかし、その失敗が私たちを思いとどまらせるべきではありません。 認識と期待を調整し、進化の過程ですべての優れたテクノロジーが失敗するという現実を受け入れなければなりません。 AIも例外ではありません。