目次:
ビデオ: À Á Â Ã Ä Å Æ Ç È É Ê Ë Ì Í Î Ï Ð Ñ Ò Ó Ô Õ Ö Ø Œ Š þ Ù (十一月 2024)
Googleは、5月のI / O開発者会議でDuplexを紹介したときに大きな騒ぎを起こしました。 この技術はあなたに代わって電話をかけ、レストランでのテーブルの予約やサロンでの予約などのタスクを実行します。
デュプレックスは、11月下旬にGoogle Pixel所有者の「小グループ」への展開を開始しました。 一部の都市(現在はニューヨーク、アトランタ、フェニックス、サンフランシスコ湾岸地域)の人々は、Google Assistantを介してこのレストランを使用して、レストランの予約を行うことができる、とVentureBeatが報告しています。
第一印象は、ほとんどの恐怖が誇張されていることを示唆しています。 どちらかといえば、DuplexはAIの現在の限界を強調しており、ユーザーや電話に応答する人を、だまして本物の人間だと思わせるのではなく、イライラさせる可能性が高くなります。
消極的なスタート
現時点では、Duplexは最大10人までのパーティーの予約のみを行うことができます(バスケットボールチームのシーズン後のお祝いはごめんなさい)。 しかし、この保守的な展開は良い動きです。
デュプレックスは、人工知能の最もトリッキーで最も難しいドメインの1つである自然言語処理および生成(NLP / NLG)によって強化されています。 AIが人間レベルのパフォーマンスを達成したタスクである画像分類や音声認識とは異なり、NLPは依然として人工知能アプリケーションに対する多くの障害を提示します。 近年最も人気のあるAI技術となっているディープラーニングは、特定のタスクへの使用を制限する明確な制約を受けています。 そのため、ディープラーニングによる人間の言語の把握は依然として非常に限られています。
これらの制限は、デュプレックスにも当てはまりますが、人間のように聞こえます。 レストランの予約ができるようにトレーニングされている場合は、それが唯一のことです。 ホテルの予約やタクシーの呼び出しはできません。 また、有意義な会話を行うこともできず、対話者がDuplexのトレーニングを受けた特定のトラックから外れるとすぐに、予期しない方法で動作します。 これを防ぐために、Googleはこのビデオに示すように、レストランの予約を予約するための一連の段階的な質問をユーザーに案内します。
全体のプロセスには約1.5分かかります。おそらく、自分で電話をかけるのにかかる時間よりも長いでしょう。 将来、GoogleはDuplexを改善して、習慣を学習し、プロセスを短縮できるようになる可能性があります。 ただし、現時点では、厳密なパイプラインは、Duplexが理解できないことを言わないようにすることを目的としています。これは、現在のAIテクノロジーの限界を示す別の証拠です。
デュプレックスエクスペリエンスの受信側でも問題が発生する可能性があります。 たとえば、Duplexとやり取りするサービスワーカーがテーブルの予約に関係のないことについて話し始めると、Googleアシスタントの応答はその人を混乱させる可能性があります。
この点で、Googleは別の正しい決定も行いました。 通話の開始時に、Duplexは受信者に対してAIエージェントと話していることを宣言します。
Googleは、Duplexの最初のプレゼンテーションの後に反発に直面した後、この小さな詳細を追加しました。AIは、呼び出しに答えた人をだまして人間と話していると思わせたようです。 しかし、オープンエンドの会話を行うにはAIの制限があるため、この宣言は、重要な詳細に会話を集中させるために、呼び出しの受信者に警告するのにも役立ちます。
たとえば、受付担当者は、発信者に親切であったり、クライアントが記念日を祝っているのか、特別な機会であるのかなどの質問をしたりすることは役に立たないことを理想的に知っています。 現時点では、Duplexはこのような状況のトレーニングを受けておらず、そのような会話に参加することはできません。
センティエントの近く
GoogleのDuplexのゆっくりした展開は、AIが人間のように考えて行動できる何らかの感覚的な存在になりつつあることを思い出させます。 また、Googleが技術を拡張し、ユーザーデータを収集し、ユーザーベースを拡張する前にエラーと欠陥を調査する際に、測定されたアプローチを取るのに役立ちます。
Duplexの可用性を制限するもう1つの理由は、Googleが人間のオペレーターを使用して飛び込み、AIが処理できない状況を処理していることです。 技術の進化に伴い、人間のオペレーターへの依存度が低くなり、あらゆる種類の会話を単独で処理できるようになることを願っています。 そうでない場合、GoogleはAIの欠点を補うために人間のオペレーターを雇う数社の1つになります。
- AmazonのAlexaをトレーニングして声を認識させる方法AmazonのAlexaをトレーニングして声を認識させる方法
- ディープラーニングを恐れない4つの理由(まだ)ディープラーニングを恐れない4つの理由(まだ)
- Googleデュプレックスは分類主義者:修正方法Googleデュプレックスは分類主義者:修正方法
別の可能な結果は、人々が実際の人間と話すことと人間のように聞こえるAIとの間の違いに対処することを学ぶということです。 Googleは現在、予約に重点を置いているため、これは起こりそうです。 結局のところ、デュプレックスコールを受信するレストラン、サロン、ホテル、およびその他の企業には、AIアシスタントとの会話を快適にするインセンティブがあります。彼らは顧客を失いたくありません。
2016年、Facebookは、さまざまなタスクを実行できるはずのAIアシスタントであるMを立ち上げました。 デュプレックスと同様に、Mは当初、限られた視聴者のみが利用できるようになり、人間のオペレーターが支援していました。 Facebookが採用を拡大するにつれて、Mは次第に人間のアシスタントに依存しなくなると考えられていました。 2018年、FacebookはMをシャットダウンしました。目標を達成できなかったためです。
GoogleのDuplexプロジェクトは、多くの点でMに似ています。 デュプレックスは最終的に他のエリアに拡大したり、レストランの予約に限定されたり、Mのようになりますか? 時が教えてくれる。