目次:
ビデオ: Faith Evans feat. Stevie J – "A Minute" [Official Music Video] (十一月 2024)
2012年、トロント大学の科学者グループが画像分類のブレークスルーを行いました。
参加者が競い合って最も正確な画像分類アルゴリズムを作成する毎年の人工知能(AI)競技であるImageNetで、トロントチームはAlexNetをデビューさせました。クォーツによると、次の最高」。
多くの人が、ディープラーニングとそのスーパーセットである機械学習を、現代の汎用テクノロジーであり、電気や火よりも奥深いものとして賞賛しています。 しかし、他の人たちは、ディープラーニングが最終的にあらゆるタスクで最高の人間となり、究極のジョブキラーになると警告しています。 また、ディープラーニングによって強化されたアプリケーションとサービスの爆発的増加により、AIの黙示録への恐怖が再燃しました。
しかし、誇大宣伝にもかかわらず、ディープラーニングには、プラスとマイナスの両方の約束を実現するのを妨げる可能性のあるいくつかの欠陥があります。
ディープラーニングはデータに依存しすぎる
基礎となる構造を構成するディープラーニングとディープニューラルネットワークは、多くの場合、人間の脳と比較されます。 しかし、私たちの心は、ごくわずかなデータで概念を学び、決定を下すことができます。 深層学習では、最も単純なタスクを実行するために大量のサンプルが必要です。
深層学習は、その核となる部分で、ラベル付きデータの一般的なパターンを見つけ、その知識を使用して他のデータサンプルを分類することにより、入力を出力にマッピングする複雑な手法です。 たとえば、深層学習アプリケーションに猫の十分な写真を与えると、写真に猫が含まれているかどうかを検出できます。 同様に、深層学習アルゴリズムがさまざまな単語やフレーズの十分な音声サンプルを取り込むと、音声を認識して文字起こしすることができます。
しかし、このアプローチは、アルゴリズムに供給するための質の高いデータがたくさんある場合にのみ効果的です。 そうしないと、ディープラーニングアルゴリズムが大きなミスを犯す可能性があります(ライフルをヘリコプターと間違えるなど)。 データが包括的で多様ではない場合、深層学習アルゴリズムは人種差別的および性差別的行動さえも示しています。
データへの依存も集中化の問題を引き起こします。 膨大な量のデータにアクセスできるため、GoogleやAmazonなどの企業は、リソースの少ない新興企業よりも効率の高い深層学習アプリケーションを開発できる立場にあります。 少数の企業でAIを中央集権化すると、イノベーションが妨げられ、それらの企業がユーザーに大きな影響を与える可能性があります。
ディープラーニングは柔軟ではありません
人間は抽象的な概念を学び、さまざまな状況にそれらを適用できます。 私たちは常にこれを行います。 たとえば、マリオブラザーズなどのコンピューターゲームを初めてプレイするときは、ピットを飛び越えたり、燃えるようなボールをかわす必要性など、現実の知識をすぐに使用できます。 その後、ゲームの知識をスーパーマリオオデッセイなどのマリオの他のバージョン、またはドンキーコングカントリーやクラッシュバンディクーなどの類似のメカニズムを持つ他のゲームに適用できます。
ただし、AIアプリケーションはすべてをゼロから学習する必要があります。 ディープラーニングアルゴリズムがマリオのプレイをどのように学習するかを見ると、AIの学習プロセスが人間の学習プロセスとどれほど異なるかがわかります。 基本的に、環境について何も知らずに開始し、さまざまな要素と対話することを徐々に学びます。 しかし、マリオをプレイすることで得られる知識は、その単一のゲームの狭い領域にのみ役立つものであり、他のゲーム、他のマリオのゲームにさえ譲渡することはできません。
この概念的および抽象的な理解の欠如により、深層学習アプリケーションは限られたタスクに集中し、人間のように知的決定を下すことができる一種のAIである一般的な人工知能の開発を妨げます。 それは必ずしも弱点ではありません。 一部の専門家は、一般的なAIの作成は無意味な目標であると主張しています。 しかし、それは確かに人間の脳と比較した場合の制限です。
ディープラーニングは不透明です
プログラマがルールを定義する従来のソフトウェアとは異なり、ディープラーニングアプリケーションはテストデータを処理および分析することで独自のルールを作成します。 その結果、結論や決定にどのように到達するのか、誰も実際には知りません。 深層学習アルゴリズムの開発者でさえ、作成結果に戸惑うことがよくあります。
この透明性の欠如は、患者治療、法執行機関、自動運転車などのデリケートな領域で技術がその位置を見つけようとするため、AIとディープラーニングにとって大きなハードルになる可能性があります。 ディープラーニングアルゴリズムは、人間よりもミスを犯しにくい傾向がありますが、ミスを犯した場合、そのミスの背後にある理由を説明できるはずです。 AIアプリケーションがどのように機能するかを理解できない場合、重要なタスクでそれらを信頼することはできません。
ディープラーニングは誇張される
ディープラーニングはすでに多くの分野でその価値を証明しており、私たちのやり方を変え続けます。 その欠陥と制限にもかかわらず、ディープラーニングは私たちを失敗させませんでした。 しかし、期待を調整する必要があります。
AI学者のGary Marcusが警告しているように、テクノロジーを誇張しすぎると、別の「AIの冬」につながる可能性があります。過度に高い期待とパフォーマンスの低下が、一般的な失望と関心の欠如につながります。
マーカスは、ディープラーニングは「普遍的な溶媒ではなく、多くのツールの1つ」であることを示唆しています。つまり、ディープラーニングが提供する可能性を探りながら、AIアプリケーションを作成する他の根本的に異なるアプローチも検討する必要があります。
深層学習革命をもたらした研究の先駆者であるジェフリー・ヒントン教授でさえ、まったく新しい方法を発明する必要があると考えています。 「将来は、私が言ったことすべてを深く疑っている大学院生にかかっている」と彼はAxiosに語った。