ご意見 ハイテク企業がAIを支援するために人間を使用している理由| ベン・ディクソン

ハイテク企業がAIを支援するために人間を使用している理由| ベン・ディクソン

目次:

ビデオ: 白净傲人摇摇晃晃 (十一月 2024)

ビデオ: 白净傲人摇摇晃晃 (十一月 2024)
Anonim

「Andrew Ingram」は、電子メールをスキャンし、同僚と話し合う会議や予定のスケジュールのアイデアを提示し、タスクを設定し、ほとんど支援なしで関連するパーティーに招待状を送信するデジタルアシスタントです。 X.aiの高度な人工知能機能を使用します。 ヨークベース AIアシスタントの開発を専門とするスタートアップ。 それが解決する問題は、面倒なスケジュールを持っている人々(私のような)にとって多くの時間とフラストレーションを節約することができます。

しかし、5月に公開されたWiredの記事によると、Andrew Ingramの背後にあるインテリジェンスは完全に人工的なものではありません。 マニラ郊外の高度に安全な建物にいる40人のフィリピン人グループが支援し、AIの動作を監視し、アシスタントが処理できないケースに遭遇した場合はいつでも引き継ぎます。

電子メールが実際の人々によってスキャンされているという考えは不気味に聞こえるかもしれませんが、AIサービスを顧客に提供する多くの企業で一般的な慣行となっています。 The Wall Street Journalの 最近の記事は、従業員が顧客の電子メールにアクセスして読み取り、新しい機能を構築し、これまでにないケースでAIをトレーニングできるようにするいくつかの企業を公開しました。

「オズの魔法使い」テクニックまたは擬似AIと呼ばれる、AIアルゴリズムの欠点を補うために人間を静かに使用する慣行は、AI業界が直面する最も深い課題のいくつかを明らかにします。

AIは広範な問題に対応していません

近年のAIの革新のほとんどは、深層学習アルゴリズムとニューラルネットワークです。 ディープニューラルネットワークは、情報の分類に非常に効率的です。 音声や顔の認識や、MRIおよびCTスキャンでの癌の識別など、多くの場合、人間よりも優れています。

しかし、それはディープラーニングとニューラルネットワークが人間ができるあらゆるタスクを達成できることを意味しません。

「深い学習により、知覚の問題を解決できるようになりました。これは、知覚が60年以上前の創業以来AIを制限しているため、大きな問題です」と、DeepGrammarの共同設立者兼CEOであるJonathan Muganは述べています。 「認識の問題を解決することで、ついにAIが音声認識やロボット工学などに役立ちました。」

しかし、Muganは、知覚だけが問題ではないことを指摘しています。 ディープラーニングは、常識的な推論と理解が必要な場所で苦労します。

「深層学習はこの問題の解決には役立たない」と彼は言う。 「言語を知覚の問題として扱うことで、NLP(自然言語処理)である程度の進歩を遂げました。つまり、単語や文をベクトルに変換します。これにより、分類および機械翻訳用のテキストをより適切に表現できるようになりました(多くの場合、データ)、しかしそれは常識的な推論を助けません。これがチャットボットが大部分失敗した理由です。」

すべてのディープラーニングアプリケーションが直面する主な問題の1つは、AIモデルをトレーニングするために適切なデータを収集することです。 タスクを実行するためにニューラルネットワークをトレーニングするための労力とデータは、問題空間の広さと、必要な精度のレベルによって異なります。

たとえば、HBOのシリコンバレーのNot Hotdogアプリなどの画像分類アプリケーションは、非常に狭く具体的なタスクを実行します。スマートフォンのカメラがホットドッグを表示しているかどうかを示します。 十分なホットドッグ画像があれば、アプリのAIは非常に重要な機能を高精度で実行できます。 また、たまに間違えたとしても、誰も傷つけません。

しかし、X.aiが構築しているような他のAIアプリケーションは、はるかに広範な問題に取り組んでいます。つまり、多くの質の高いサンプルが必要です。 また、エラーに対する許容度ははるかに低くなります。 キュウリをホットドッグと間違えることと、重要なビジネス会議を間違った時間にスケジュールすることとの間には大きな違いがあります。

残念ながら、品質データはすべての企業が所有する商品ではありません。

「経験則では、AIが対処しようとしている問題が一般的であるほど、発生する可能性のあるエッジケースや異常な動作が発生します。 GeospockのCTO。 「一般的に、スタートアップは膨大な量のトレーニングデータにアクセスできないため、実行可能なモデルは非常にニッチで脆弱なモデルになり、通常は期待に応えられません。」

このような豊富な情報は、FacebookやGoogleなど、長年にわたって何十億ものユーザーのデータを収集してきた大企業だけが所有しています。 中小企業は、トレーニングデータを取得または作成するために多額の費用を支払う必要があり、アプリケーションの起動が遅れます。 代わりに、とにかく起動して、人間のトレーナーとライブの顧客データを使用して、その場でAIのトレーニングを開始し、最終的にAIが人間に依存しなくなることを期待します。

たとえば、Eメールを管理するためのアプリを開発するカリフォルニア州の企業であるEdison Softwareは、従業員にクライアントのEメールを読み取らせ、アルゴリズムをトレーニングするための十分なデータがなかったため、「スマート返信」機能を開発しましたCEOはThe Wall Street Journalに語った。 スマートな返信を作成することは、幅広く困難な作業です。 数十億のユーザーのメールにアクセスできるGoogleでさえ、非常に狭いケースに対してスマートな返信を提供します。

しかし、人間を使用してライブユーザーデータでAIをトレーニングすることは、小規模企業に限定されません。

2015年、FacebookはMを立ち上げました。Mは、さまざまなニュアンスの会話を理解して対応し、多くのタスクを実行できるAIチャットボットです。 Facebookはカリフォルニアの限られた数のユーザーがMを利用できるようにし、AIのパフォーマンスを監視し、ユーザーのリクエストを理解できない場合にそれを修正するために介入する人間のオペレーターのスタッフを設置しました。 当初の計画は、人間のオペレーターが、アシスタントに、これまで見たことのないエッジケースへの対応を教えるのを支援することでした。 時間が経つにつれて、Mは人間の助けを借りずに動作できるようになります。

達成できない目標?

Edison Software、X.ai、およびヒューマン・イン・ザ・ループシステムを立ち上げた他の企業がAIを完全に自動化するのにどれくらい時間がかかるかは明らかではありません。 また、AIの現在のトレンドがより広範なドメインに関与するポイントに到達できるかどうかも疑問です。

2018年、FacebookはMを公式に展開せずにMをシャットダウンしました。 会社は詳細を共有しませんでしたが、広範な会話に関与できるチャットボットを作成することは非常に難しいことは明らかです。 また、Facebookの20億人のユーザー全員がMをあらゆる種類の会話に自動的に応答できるようにすることなく利用できるようにするには、ソーシャルメディアの巨人がMのギャップを埋めるために巨大なスタッフを雇う必要がありました。

DeepGrammarのMuganは、他の人が一般的なAIとして分類する常識的な推論を解決できるAIを最終的に作成できると考えています。 しかし、それはすぐには起こりません。 「現在のところ、小さな子供が知っていることをコンピュータが理解できるようにする方法はありません」とMuganは言います。 「この基本的な理解がなければ、コンピューターは多くのタスクを100%うまく行うことができません。」

それを理解するために、OpenAIの専門家は最近、オブジェクトを処理できるロボットハンドであるDactylを開発しました。 これは、人間の子供が幼いときに無意識のうちに実行することを学ぶタスクです。 しかし、同じスキルを開発するには、Dactyl 6, 144 CPUと8 GPU、および約100年の経験が必要でした。 これは魅力的な成果ですが、狭いAIと人間の脳の働きとの明確な違いも強調しています。

「私たちは人工知能を持つことから非常に長い道のりを歩んでおり、AGIは多くの異なるタイプの狭いまたはアプリケーション固有のAIの組み合わせと調整になるでしょう。」とMarsh氏は言います。 「現時点ではAIの機能を誇張する傾向があると思いますが、最初の最初の一歩を踏み出し、従来の機械学習モデルを実装するだけでも大きな価値があると思います。」

別のAI冬が迫っていますか?

1984年、米国人工知能協会(後に人工知能の進歩協会に改名)は、AIを取り巻く誇大広告と熱意が最終的に失望につながるとビジネスコミュニティに警告しました。 その後すぐに、AIへの投資と関心が崩壊し、「AI冬」として知られる時代に至りました。

2010年代初頭以来、この分野への関心と投資は再び増加しています。 一部の専門家は、AIアプリケーションがパフォーマンスを下回り、期待に応えられない場合、別のAIの冬が続くことを恐れています。 しかし、私たちが話した専門家は、AIがすでに私たちの生活に統合されすぎて、そのステップをたどることができないと信じています。

「AIが仮想の価値だけでなく、真の価値を提供するようになったため、以前のようなAIの冬の危険にさらされているとは思いません」とMugan氏は言います。 「しかし、コンピューターが人間のように賢いということを一般市民に伝え続けると、反発のリスクがあります。知覚にディープラーニングを使用しないことに戻ることはできませんが、「AI」という用語は無効になります。それを何か別のものと呼ばなければならないでしょう。」

確かなことは、少なくとも幻滅の時代が私たちの前にあるということです。 さまざまな分野で現在のAIのブレンドをどの程度信頼できるかを学習しようとしています。

「私が期待しているのは、以前は手作業で高価なサービスにAIをどれだけ早く提供できたかに驚く企業もあれば、十分なデータを収集するのに予想以上の時間がかかった企業もあるということです。 Kindred.aiの共同設立者兼研究責任者であるJames Bergstra氏は語ります。 「後者の数が多すぎて前者の数が足りない場合、投資家の間で新たなAIの冬が始まるかもしれません。」

  • 人工知能にはバイアスの問題があり、それが私たちのせいです人工知能にはバイアスの問題があり、それが私たちのせいです
  • ゲームをプレイするためにAIを教えることが重要な理由ゲームをプレイするためにAIを教えることが重要な理由
  • AIは大きな可能性を提供しますが、一晩は発生しませんAIは大きな可能性を提供しますが、一晩は発生しません

GeospockのMarshは、資金調達は収まらないが、そのダイナミクスには多少の調整があると予測しています。 投資家が真の専門知識は稀であり、モデルをトレーニングするためのデータにアクセスできる人だけが業界で異なることに気付くと、市場は大きく統合され、資金調達を受けるスタートアップははるかに少なくなります。

「ニッチ市場アプリケーションや膨大なデータのない多くのAIスタートアップにとって、冬が来ています」とMarshは結論付けています。

ハイテク企業がAIを支援するために人間を使用している理由| ベン・ディクソン