ビデオ: Французский из шкафа №20 АРТИКЛИ СО СТРАНАМИ - ARTICLES DÉFINIS (十一月 2024)
携帯電話、エコー、またはコンピューターに何かを尋ねます。 または、銀行に電話して、自動化されたメニューに相談してください。 待ちます。
あなたが尋ねたものが何であれ、女性の合成されたバージョンはおそらく、あなたの口調やトピックに関係なく、礼儀正しく、控えめに答えました。
それは、Siri、Alexa、Cortana、および彼らの前身が長年にわたってこの仕事をしており、深刻な質問に答えてばかげた質問をそらす準備ができているからです。 彼らは身体に欠けていますが、彼らは私たちがパーソナルアシスタントを想像するとき私たちが考えるもの、有能で効率的で信頼できる女性を体現しています。 彼女はリマインダーと指示で時間通りに会議に連れて行って、通勤の資料を提供し、天気や交通などの関連情報を途中で伝えます。 それにもかかわらず、彼女は担当していません。これらのタスクは、人間によって実行されると、社会的および心理的な結果をもたらします。 したがって、感情のないAIをパーソナルアシスタントとして使用すると、時代遅れの性別のステレオタイプに関する懸念が解消されると考えるかもしれません。 しかし、企業は女性の声と、場合によっては名前を付けて、これらの製品を繰り返し発売しています。 しかし、その位置にいる女性だけを見ることができるとき、人工の女性でさえ、私たちは有害な文化を強制します。
それでも、消費者はこのシナリオで友好的で親切な女性を期待しており、それが企業に与えられているものです。
「立ち上げ前に社内ベータプログラムと顧客で多くの音声をテストし、この音声が最高のテストを行いました」とAmazonの広報担当者はPCMagに語りました。
Microsoftの広報担当者は、Cortanaは技術的に性別を問わないが、音声を選択する際に性別調査に没頭し、男性と女性の音声のメリットを比較検討したと述べた。 「しかし、私たちの目的である、助けになり、支えになり、信頼できるアシスタントを作るには、女性の声がより強力な選択でした」とレドモンドは言いました。
AppleのSiriとGoogle Assistantは現在、男性の声に切り替えるオプションを提供しています。 2013年からSiri、10月からGoogle。 しかし、AlexaとCortanaには男性の対応者がいません。
IBMのWatson(高次のAI)は男性の声で話し、がん治療について医師と協力し、 Jeopardy を手軽に獲得することを考慮してください。 Jeopardyに Watsonの声を選択するとき、IBMは自信のある声を出し、短い決定的なフレーズを使用しました。 どちらも男性のスピーチに典型的であり、調査によると、人々はリーダーから男性的な声を聞くことを好むので、ワトソンは男性の声を得ました。
一方、心理学者のジェームズ・W・ペネベーカーによると、女性は男性よりも代名詞と仮の言葉を使用します。 代名詞、特に「I」という言葉の使用は、社会的地位の低下を示しています。 AIアシスタントは、特に間違いに対する責任を負う際に「I」を使用する傾向があります。 Siriに処理できない質問を尋ねると、彼女は「わかりません」と言います。
パーソナルアシスタントの中で、典型的な性別の役割に挑戦することが重要です。 AIとの相互作用はそれを教え、訓練しますが、これらの経験によっても形作られます。 Alexaがタスクを実行するために「お願い」または「ありがとう」を必要としない場合、親が意図せずに無礼な子供を育てることを心配するのはこのためです。
テクノロジーとの関係が親密性の新しい段階に入ると、一部の人々の主な性的体験が性的嗜好性ロボットで起こるとどうなるかを考えるのが心配です。 YouTubeビデオで性的にいやがらせをするSiriは一部の人にとっては面白いかもしれませんが、その言葉が女性がストリートハラスメントで聞く言葉にどれほど似ているかを聞くのは不安です。 両方がそれをただ受け入れるという同じ社会的期待があります。
人間は、社会的相互作用において言語スタイルのマッチングを目指します。つまり、話している人間の言語パターン(現在はAI)に一致させようとします。 しかし、AIが物理的な領域に入ると、AIを品位を傷つける方法で扱うことには深刻な個人的および社会的影響があります。 AIの背後にある企業は偏見を利用していますが、それはユートピアや技術などへの道ではありません。