特徴 Googleのジグソーパズルがインターネットを解毒する方法

Googleのジグソーパズルがインターネットを解毒する方法

目次:

ビデオ: ’, Â, � etc... How to fix strange encoding characters in WP or other SQL database (十一月 2024)

ビデオ: ’, Â, � etc... How to fix strange encoding characters in WP or other SQL database (十一月 2024)
Anonim

インターネットは有害な場所のように感じることがあります。 トロールは、コメントセクションとソーシャルメディアスレッドを下って、悪意のあるスピーチや嫌がらせを投げかけ、潜在的に啓発的なディスカッションをアドホミネム攻撃やグループパイルオンに変えます。 オンラインで意見を表明することは、結果として生じる苦労に値することはないようです。

Facebook、Twitter、YouTubeなどの大規模なソーシャルプラットフォームは、これらの問題を適切に取り締まることができないと認めています。 彼らは、ボット、トロール、およびコンテンツフィルターをすり抜ける他のすべての望ましくない人々との軍拡競争に参加しています。 人間は、ウェブ上のすべてのコメントを物理的に読むことができません。 よく後悔する人。

ハイテクの巨人は、人間のモデレーション、AIアルゴリズム、およびフィルターのさまざまな組み合わせを実験して、毎日フィードを流れるコンテンツのthrough濫から抜け出しました。 ジグソーパズルは妥協点を見つけようとしています。 以前はGoogle Ideasとして知られていたAlphabetの子会社であり、技術インキュベーターは、人間のモデレーター向けのツールになった機械学習(ML)がインターネットの毒性問題へのアプローチ方法を変えることができることを証明し始めています。

Perspectiveは、JigsawとGoogleのCounter Abuse Technologyチームによって開発されたAPIです。 MLを使用してオンラインでの虐待や嫌がらせを発見し、人間のモデレーターの生活を楽にするための入札での会話への影響の可能性に基づいてコメントを採点します。

叫ぶ試合の中の展望

オープンソース技術は2017年に初めて発表されましたが、その開発は数年前に始まりました。 Perspectiveで実験した最初のサイトのいくつかは、 The New York Times などのニュース出版物やWikipediaなどのサイトです。 しかし最近、パースペクティブはRedditやコメントプラットフォームDisqus(PCMag.comで使用されています)などのサイトにホームを見つけました。

PerspectiveのプロダクトマネージャーであるCJ Adamsは、このプロジェクトでは、人々の声がオンラインでどのように沈黙するのかを調査したいと述べました。 ジグソーは、ターゲットを絞った虐待や嫌がらせの一般的な雰囲気がいかに冷静な効果を生み出し、議論に自分の声を加えるのに時間やエネルギーを費やす価値がないと感じるように人々を落胆させるかを探求したかったのです。 つぶやき、投稿、またはコメントを見て、応答しないことを選択した頻度は、トロルとの戦いやMad Onlineを取得するだけでは悪化する価値がないからです。

「オンラインでの会話を台無しにするのはとても簡単です」とアダムズは言いました。 「簡単に飛び込むことができますが、1人の人が本当に意地悪で有毒だとすると、他の声が出てしまいます。100人が記事を読んだり、議論を始めたりすると、部屋の中で最も大きな声だけが残ってしまい、好きなものや共有するために最適化されたインターネットで。だから、これらすべての声を沈黙させるのです。そして、議論を定義しているのは、部屋で最も大きな声、つまり叫び声です。

    ジグソーパズルとGoogle

    Jigsawの姉妹会社であるGoogleにとっては厳しい年でした。Googleは、データセキュリティの問題、米国国防総省と中国のプロジェクトへの関与に対する従業員の抵抗、セクシャルハラスメントの取り扱いに関する啓示に取り組んでいます。 議員によるスンダ・ピチャイ最高経営責任者(CEO)が焼かれた論争的な議会公聴会は言うまでもありません。

    アルファベットの利他的なインキュベーターであるジグソーでは、物事は少し劇的ではありませんでした。 チームは、Intraアプリを使用したDNSポイズニングやProject Shieldを使用したDDoS攻撃など、より技術的な検閲形式の調査に時間を費やしました。 パースペクティブを使用すると、目標はより抽象的なものになります。 パースペクティブの課題は、機械学習を使用して特定のルールセットに違反しているかどうかを判断するのではなく、言語の感情的な影響を分類するという非常に主観的な課題です。

    そのためには、文を分解してパターンを見つける自然言語処理(NLP)が必要です。 パースペクティブチームは、テクノロジーによってリーチが拡大し、解決が困難になった環境で、確認バイアス、グループ思考、嫌がらせ行為などの問題に直面しています。

    AIは「時々間違っている」

    機械学習によるオンライン会話の改善は簡単な作業ではありません。 まだ新しい研究分野です。 アルゴリズムには偏りがあり、機械学習システムには無限の改良が必要であり、最も困難で最も重要な問題はまだ大部分が未調査です。

    Perspectiveを作成したConversation AI研究グループは、新聞、出版社、および会話をホストしている他のサイトとの出会いから始まりました。 この技術で実験した最初のサイトのいくつかは、 ニューヨークタイムズ 、ウィキペディア、 ガーディアン 、 エコノミスト でした。

    2017年に、チームはアルファテストの一環として、公開Webサイトを介して最初のPerspectiveデモを開始し、人々が何百万もの下劣で虐待的なコメントをサイトに入力できるようにしました。 Microsoftの悪名高い失敗したTayチャットボットの実験のようなものでしたが、Jigsawはボットをだまして人種差別的なツイートで返信するのではなく、クラウドソーシングされた毒性をトレーニングデータとして使用してモデルをフィードし、さまざまなタイプのオンライン不正使用を特定して分類しました。

    最初のパブリックテストの実行はスムーズに進みませんでした。 Wiredの「Trolls Across America」は、パースペクティブスコアリングに基づいて全国のコメントで毒性を取り除いたもので、アルゴリズムが人種、性同一性、性的指向によってグループを誤って差別する方法を示しました。

    アダムスは、パースペクティブの最初のテストで主要な盲点とアルゴリズムの偏りが明らかになったという事実について率直でした。 数十年に渡る欠陥のある職務データを訓練し、女性の応募者に内在するバイアスを開発したアマゾンのスクラップ募集ツールのように、初期のパースペクティブモデルは、訓練されたデータのために明白な欠陥がありました。

    「頻繁にターゲットを絞ったグループの例では、トレーニングデータセット内のコメント全体の分布を見ると、「ゲイ」または「フェミニスト」という単語を含むコメントが非常に少なく、肯定的に使用されていました方法」とアダムズは説明しました。 「虐待的なコメントはwords辱として言葉を使用します。したがって、MLはパターンを見て、「ねえ、この言葉の存在はこの感情が有毒かどうかのかなり良い予測因子です」と言うでしょう。

    たとえば、アルファアルゴリズムは、「私は誇りに思っている同性愛者だ」、または「私はフェミニストでトランスジェンダーです」などのステートメントに誤って高い毒性スコアを付けている可能性があります。 しかし、公開されている透明なトレーニングプロセスは、痛みを伴うものの、意図しないバイアスの結果におけるジグソーの貴重な教訓でした、とアダムズは言いました。

    オンラインの虐待や嫌がらせのような苦痛で個人的なものについて機械学習モデルをトレーニングするとき、アルゴリズムバイアスの存在も、AIだけでは解決策ではない理由を強調しています。 FacebookやYouTubeなどのソーシャル企業は、プラットフォームのAIコンテンツモデレーション機能を宣伝し、数千人のモデレーターを雇うことでスキャンダルとコース修正の真っback中に戻った。

    ジグソーパズルのタックは2つのハイブリッドです。 パースペクティブは、AIアルゴリズムが真空状態で意思決定を行うことではありません。 このAPIはコミュニティ管理およびコンテンツモデレーションインターフェイスに統合されており、ヒューマンモデレーターの支援ツールとして機能します。 パースペクティブエンジニアは、ヘイスタックのアナロジーを使用して、MLの有無にかかわらずヘイトスピーチをモデレートすることを説明します.AIは、ソートプロセスを自動化することで、膨大なヘイスタックを削りながら、コメントが虐待または嫌がらせと見なされるかどうかについて最終的な判断を与えます。

    「MLのこの新しい機能です」とAdams氏は述べています。 「人々はAIがどれほどスマートかを語りますが、それが間違っていることや口がきけないことをしばしば語らないことがあります。最初から多くの間違いを犯すことを知っていたので、このツールは、機械支援による人間の節度に役立ちますが、自動決定を行う準備ができていません。 しかし、この有害な発言を見つける「干し草の山の針」の問題を取り、それをほんの一握りの干し草にすることができます。」

    毒性スコアとは何ですか?

    パースペクティブのモデリングの最も分裂的な側面は、「毒性」と同じくらい主観的な変数に数値を置くことです。 アダムスが最初に指摘したことは、パースペクティブのスコアは重大度ではなく確率の指標であることです。 数字が大きいほど、テキストのパターンが人々が有毒とタグ付けしたコメントのパターンに似ている可能性が高くなります。

    「毒性」の実際の意味については、パースペクティブチームはそれを「失礼な、無礼な、または不合理なコメントで、議論から離れる可能性が高い」と広く定義しています。 しかし、それがどのように現れるかは微妙な場合があります。 2018年、JigsawはRhodes Artificial Intelligence Lab(RAIL)と提携して、公然と敵対的ではない、軽miss的、軽des的、または皮肉なコメントなど、より曖昧な形態の脅迫的または憎悪的な発言を拾うことができるMLモデルを開発しました。

    これまで、Perspectiveのモデルのほとんどは、インターネットのコメントを「非常に有毒」から「非常に健康」までの規模で評価するように人々に求めることで訓練されてきました。 その後、開発者はモデルを調整して、特定のしきい値(0.0〜1.0)を超えるコメントにフラグを立てることができます。 0.9を超えるスコアは毒性の可能性が高いことを示し、0.5以下のスコアはアルゴリズムの確実性がはるかに低いことを意味します。 パースペクティブは、スコアの正規化と呼ばれるものも使用します。これにより、開発者はスコアを解釈するための一貫したベースラインを得ることができます。 Adamsは、フォーラムまたはWebサイトによっては、開発者がモデルを組み合わせて一致させることができると説明しました。 したがって、コミュニティが冒とくを気にしない場合、その属性は軽視できます。

    Adamsは、Perspective APIと統合されたデモモデレーションインターフェイスを示しました。 管理パネルの上部、最新などでコメントを並べ替えるオプションの横に、毒性別に並べ替える小さなフラグアイコンがあります。 また、人間のモデレーターが不正確にコメントを記録し、時間の経過とともにモデルを改善することをパースペクティブに伝えるための組み込みのフィードバックメカニズムもあります。

    彼は、異なるパースペクティブモデルによってスコア付けされたWikipediaトークページのコメントをモデレートするためのデモインターフェイスをクリックし、どのコメントがページ作成者への攻撃または別のコメント者への攻撃である可能性が高いかを分解するヒストグラムグラフを使用しました。

    「人間がレビューできるようにフラグを立てるためにマシン支援のモデレーションツールを構築したいが、中心的な定義や誰かが良い点と悪い点を言うことは望まない」とアダムズは述べた。 「つまり、毒性で並べ替えると、コメントが一番上に来ることを意味します。しかし、例えば、宣誓のような指標よりもID攻撃や脅威に関心がある場合、一般的な毒性モデルを使用しないでしょう。あなたが混ぜることができる材料。私たちはこれらを提供し、開発者はそれらを重み付けします。」

    RAIL実験では、よりきめ細かなアプローチを採用しています。 オックスフォードの卒業生は、カナダの新聞 Globe and Mail のコメントセクションとウィキペディアトークページから数万件のコメントのデータセットを構築しています。 彼らは人間の「アノテーター」に、「不健康なコンテンツ」の5つのサブ属性に関連する各コメントについての質問に答えるよう求めています:敵対的または(辱(トロル)、却下、軽desまたは愛顧、皮肉、および不公平な一般化。

    これらのより微妙な属性に注目すると、特定のグループへの意図しないバイアスや皮肉なコメントによる誤検知を伴う新しい複雑な問題が明らかになりました。 これはAIの苦痛の一部であり、モデルにますます多くのデータを与えて、人間の音声の背後にある暗黙の間接的な意味を理解するのに役立ちます。 チームはまだ何千ものコメントを徹底的に調べて注釈を付けており、今年初めに最終データセットをリリースする予定です。

    「私たちが目指したいのは、コミュニティが一連のコメントを獲得し、それに合わせてパースペクティブモデルのカスタムミックスを作成できるようにすることです」とAdams氏は述べています。

    Redditの好奇心が強いテストベッド

    Redditは、インターネットの良さと恐ろしいすべての縮図です。 あなたが考えることができるすべてのトピックとニッチ、奇妙な興味のためのsubredditコミュニティがあります。 Jigsawは企業レベルではRedditと連携しませんが、PerspectiveのAIモデレーションがテストされている最も興味深い場所の1つは、r / changemyviewと呼ばれるsubredditです。

    驚くべきことに、インターネットの隅々では、真の議論や議論がまだ行われています。 ビューの変更(CMV)は、他のほとんどのsubredditsとは異なります。 考えは、欠陥があるか、変更された可能性があると認める意見を投稿し、問題についてあなたの考えを変えることができるかどうかを確認するために他の視点を聞いて理解することです。 スレッドは、 スターウォーズ 映画の適切な視聴順序などのありふれたトピックから、人種差別、政治、銃規制、宗教などの問題に関する深刻な議論にまで及びます。

    Subredditには、設計によって議論や白熱した議論を引き起こす会話を開始およびモデレートするための独自の詳細なルールセットがあるため、Change My ViewはPerspectiveにとって興味深いテストベッドです。 Redditでu / Snorrrlaxを経由するKal Turnbullは、r / changemyviewの創設者であり、モデレーターの1人です。 ターンブルはPCMagに対し、パースペクティブAPIは潜水艦のルール2に特によく合致し、基本的に失礼なまたは敵対的な発言を禁止していると語った。

    「それは単純なルールのように聞こえますが、それには多くのニュアンスがあります」とスコットランドに拠点を置くターンブルは言いました。 「言語に精通せずにこのルールを自動化することは困難です。 RedditはAutoModeratorと呼ばれるものを提供します。ここでは、フラグ付けのためのフィルターとキーワードを設定できます。 しかし、偽陽性は非常に多く、誰かをs辱することなく悪い言葉を言うことができ、また悪い言葉を使わずに誰かをs辱することもできるため、キャッチするのは非常に困難です。」

    ジグソーは2018年3月にターンブルに連絡を取りました。コラボレーションはルール2から始まりましたが、すぐにチームは他のルールのパースペクティブモデルも構築しました。 これは、オープンソースのPerspective APIの完全な統合ではなく、特定の毒性しきい値を超えてスコア付けされたコメントにモデレーターがフラグを立てることができるRedditボットです。

    過去6年間、Turnbullおよびその他のMODは、AutoModeratorレポート(フラグの付いたキーワード)およびユーザーレポートのキューからこのすべてを手動で行ってきました。 Jigsawはモデレーターからの長年のルール違反メモを使用し、ブラウザー拡張機能で追跡し、そのデータに基づいてPerspectiveの既存の毒性モデルの一部と組み合わせてPerspectiveモデルを構築しました。 2018年を通じて、CMV MODは過剰な誤検知などの問題に関するフィードバックを提供し、ジグソーはスコアリングのしきい値を調整しながら、CMVのルールをさらにモデル化し続けました。

    オンライン討論における複雑な判断

    (パースペクティブボットはRedditモデレーターインターフェイスに統合されています。)

    パースペクティブは、subredditのすべてのルールモデレーションに対して有効ではありません。 より複雑な、または抽象的なルールのいくつかは、この種のMLが理解できる範囲を超えています。

    たとえば、ルール4は潜水艦のデルタポイントシステムを管理し、ルールBはユーザーが悪魔の擁護者を演じたり、「ソープボアックス」の投稿を使用したりするのを停止します。 そのような微妙な節度には、真の理由で論争しているのか、単にトローリングしているのかを識別するために、コンテキストデータと人間の単純な理解が必要です。

    近い将来、人間のmodが必要になります。 これらのより複雑な判断シナリオは、CMVモデレーターがAIモデリングのクラックを見始めている場所であり、より巧妙な自動化により、これらすべてがスケーラブルであるかどうかを判断できます。

    「これが非常に複雑な理由は、元の投稿に対する私たちの判断と、会話全体にわたる相互作用の組み合わせだからだと思います。したがって、モデルをトリガーするのは1つのコメントだけではありません。」 「議論が行き来し、最後に「ありがとう」というコメントや謝辞があれば、スレッドの前の方でルールが破られていたとしても、それを手放します。失礼なように思えるかもしれません。それは人間にとってすてきな小さなことであり、それはボットがまだ得ていないものです。」

    アダムズは、チームが他のいくつかからアクセス要求を受け取ったと述べたが、私の個人的なビューを変更することは、現時点でモデレートのためにパースペクティブMLモデルを積極的に使用している唯一のサブレディットです。 CMVの特定のルールセットにより理想的なテストケースになりましたが、パースペクティブモデルは順応性があります。 個々のsubredditsは、コミュニティガイドラインに合わせてスコアリングアルゴリズムをカスタマイズできます。

    ターンブルの次のステップは、コミュニティが成長しているため、RedditからCMVを削除することだと彼は言いました。 過去6か月間、モデレーターの新たに設立されたスタートアップは、Redditのmodインターフェースおよびボットが提供できるよりも深い機能を備えた専用サイトでJigsawと協力してきました。

    このプロジェクトはまだアルファ版テストのみですが、ターンブルは、ユーザーがルールに違反する可能性のあるコメントを入力しているときの事前対応型アラート、モデレーターにより多くのコンテキストを提供する組み込みレポート、決定を下す履歴データなどの機能について話しました。 Turnbullは、subredditをシャットダウンまたは移行する計画はないと強調しましたが、新しい実験に興奮しています。

  • すべてのコメントが印刷に適合

    曜日によって、 The New York Timesの Webサイトは12, 000から18, 000以上のコメントを受け取ります。 2017年半ばまで、この論文のコメントセクションは、すべてのコメントを読んで承認するか拒否するかを決定する専任のコミュニティ管理スタッフによって管理されていました。

    今月まで Timesの コミュニティエディターであったBassey Etimは、コミュニティデスクで10年を過ごし、2014年からエディターを務めていました。ニュース記事に取り組みました。 スプレッドシートが分割され、さまざまな責任を追跡しましたが、約12人のチームは、その瞬間のトップニュースに応じて絶えず再割り当てまたは移動されました。 彼らはまた、コメントからのちょっとした情報を、潜在的なストーリーの飼料としてレポーターにフィードバックしました。

    最終的に、これは12人以上が処理できることが明らかになりました。 ストーリーのコメントセクションは、チームが管理できるコメントの最大数に達した後に閉じる必要があります。

    新聞のオーディエンス開発グループは、基本的で明白なコメントの承認のために機械学習をすでに実験していたが、エティムはそれが特にスマートでもカスタマイズ可能でもなかったと述べた。 タイムズは 2016年9月にジグソーとのパートナーシップを最初に発表しました。それ以来、そのコメントセクションはすべてのストーリーの10%未満に表示されていましたが、今日では約30%に上昇しています。

    ジグソーの観点から、インキュベーターは、1日あたり数百万のコメントからパースペクティブの匿名化されたデータを提供する機会を見ました。 匿名化されたMLトレーニングデータと引き換えに、ジグソーと タイムズ は共同でモデレーターと呼ばれるプラットフォームを構築し、2017年6月に展開されました。

  • 内部モデレーター、NYTコメントインターフェイス

    The New York Times 提供の画像

    モデレーターは、Perspectiveのモデルと、2007年に遡る匿名化およびモデレートされた1, 600万件以上の Times コメントを組み合わせています。

    コミュニティチームがモデレーターインターフェイスで実際に表示するのは、特定のしきい値を超えるコメントの内訳を視覚化するインタラクティブなヒストグラムチャートを備えたダッシュボードです。 たとえば、スライダーを前後にドラッグして、0〜20%の要約スコアですべてのコメントを自動的に承認します。これは、コメントの潜在的なわいせつ性、毒性、拒否される可能性の組み合わせに基づいています。 パースペクティブのモデリングを改善し続けるために、コメントを承認または拒否したり、延期したり、コメントにタグ付けしたりするためのクイックモデレーションボタンがあります。

    「ウェブサイトの各セクションについて、寄せられたコメントとパースペクティブがそれらにタグを付ける方法を分析しました。パブリックパースペクティブモデルと ニューヨークタイムズ 独自の独自のモデルの両方を使用しました」とエティムは言いました。 「各セクションのコメントを分析し、「 '、たとえばわいせつなど、これらの特定の毒性タグを使用してこの確率を超えるものはすべて承認します。」と言っても問題ないカットオフポイントを見つけようとします。」

    Times がより多くのストーリーにコメントを展開し、最終的にはモデルがサイトのさまざまなセクションのコメントをフィルターおよび承認する方法をカスタマイズするために、機械学習は比較的少数のコメント(約25%程度)を承認しています。 モデルはコメントのみを承認します。 拒否は、依然として人間のモデレーターによって完全に処理されます。

    これらの手動コメントのカットオフはなくなりました。 エティム氏によると、通常、ストーリーはオンラインで公開されてから24時間後、または印刷物で公開された翌日にコメントが閉じられます。

    「私たちはあなたを機械で置き換えるのではありません」

    次のフェーズでは、モデレーターがどのコメントを最初に見るかを優先順位付けするのに役立つ機能をシステムにさらに組み込みます。 常に手動プロセスであったものを自動化することで、モデレーターはコメントに返信するためにレポーターと積極的に協力する時間を費やすことができました。 コメントがフォローアップレポートや追加のストーリーにつながるフィードバックループを作成しました。リソースを保存および再割り当てして、より多くのジャーナリズムを作成できます。

    「モデレーターとパースペクティブにより、 タイムズ は読者の懸念により多く反応するようになりました。それは、自分でストーリーを書いたり、記者と協力してストーリーを理解することによって、それを行うためのリソースがあるからです」 「このプロジェクトのクールな点は、誰も解雇しなかったことです。私たちはあなたを機械で置き換えることはしません。私たちはより効率的に、非常に厳しい決定を下すために単に人間を使用しています。」

    このホワイトペーパーは、他の出版物と協力して、業界のこの種の技術の実装を支援しています。 限られたリソースのローカルニュースアウトレットが、大規模な専任スタッフなしでコメントセクションを維持し、 Timesの ようにコメントを使用し、潜在的なリードを見つけ、草の根ジャーナリズムを活性化するのに役立ちます。

    エティムは、AIを介した節度を、農民に機械的なpとスペードを与えることに例えました。 あなたはすきを使って仕事をもっと良くすることができます。

    「パースペクティブが正しい方法で進化することができれば、願わくば、少なくとも小さなアウトレットで再現可能な一連のガイドラインを作成できるでしょう」と彼は言いました。 「それは長いゲームですが、その読者体験の一部となるためにすでに多くの基盤を設定しました。そうすれば、これらの地元の論文が再びコメントを持ち、主要なソーシャルプレーヤーに対して少しの足がかりを確立できるかもしれません。」

    深Abへの叫び

    この時点で、私たちのほとんどは、意見を表明するためにソーシャルメディアで攻撃または嫌がらせを受ける人々を見てきました。 そのようなことで繁栄するトロルを除いて、誰もそれが彼らに起こることを望みません。 そして、理性的な議論に耳を傾けることのない見知らぬ人に向かって叫ぶことは、私たちの時間の価値ある使用法ではないことを学びました。

    パースペクティブはそのダイナミックさを覆そうとしていますが、CJ Adamsは、より広い目標は、データ、研究、新しいオープンソースUXモデルを公開して、会話の新しい構造を作成することであると述べました。 インターネットを人々の時間の価値がある健全な場所にすることは、これらのシステムをニュースコメントセクションやサブレッドディットを超えて拡張することを意味します。 最終的に、AIツールは、日常のデジタルインタラクションを支配する巨大なソーシャルアプリとネットワークを処理できなければなりません。

    Facebook、Twitter、および他のソーシャルジャイアントが社内で行っていることは別として、これを達成する最も直接的な方法は、モデレーターからユーザー自身にテクノロジーをプッシュすることです。 Adamsは、Coral Projectがどのように見えるかについてのアイデアを指摘しました。

    Coral Projectは当初、Mozilla Foundation、 The New York Times 、 Washington Postの コラボレーションとして設立されました 。 Coralは、オンラインディスカッションを促進し、コメントセクションをシャットダウンする代わりにニュースサイトを提供するために、Talkプラットフォームなどのオープンソースツールを構築しています。 現在、Talkは、 Post 、 New York Magazine、The Wall Street Journal、 The Interceptなど、約50のオンライン出版社のプラットフォームを強化しています。

    今月初め、Vox MediaはMozilla FoundationからCoral Projectを買収しました。 コンテンツ管理およびストーリーテリングプラットフォームであるChorusに「深く統合」する予定です。

    PerspectiveにはCoral Project用のプラグインがあり、同じ基盤技術であるMLベースの毒性スコアリングとしきい値を使用して、入力中にユーザーに積極的な提案を提供します、とAdamsは言いました。 そのため、ユーザーが虐待や嫌がらせとして報告されたフレーズを含むコメントを書いている場合、ユーザーに「これを投稿する前に、必ずコミュニティガイドラインを覚えておいてください」または「このコメントの言語がコミュニティガイドライン。モデレーションチームがまもなく審査します。」

    「その少しの微調整は、人々がその秒を考えるのに役立つことができますが、それは誰もブロックしません」とアダムズは言いました。 「議論を止めるわけではありません。」

    これは、悪用や嫌がらせを防ぐために、ビデオゲームチャットとストリーミングプラットフォームが統合されたメカニズムです。 Twitterユーザーもそのようなシステムから明らかに恩恵を受けることができます。

    MITの研究科学者Andrew LippmannがPCMagの将来の問題で取り上げたアイデアを語っています。彼は、誤報の拡散を防ぐために、人々がオンラインで何かを共有する前に停止して考えることができる組み込みのメカニズムについて話しました。 この概念は、オンラインディスカッションにも適用されます。 声明の到達範囲を一瞬で指数関数的に増幅できる摩擦のない通信システムを作成しましたが、少し摩擦が良いこともあるとリップマン氏は言います。

    視点は、包括的なソリューションとしてAIを使用することではありません。 これは、MLモデルを人間が自分の経験をキュレートするのに役立つツールに成形する方法です。 しかし、1つの反論は、人々が好まないオンラインノイズをさらに簡単に調整できるようにすれば、インターネットは以前よりもさらに反響室になります。

    パースペクティブのようなツールが最終的にこれを悪化させる可能性があるかどうかを尋ねられ、アダムズは、人々が有意義に意見を異にすることができる議論をホストするメカニズムがないため、オンラインエコーチャンバーが存在すると信じていると述べた。

    「抵抗が最も少ない道は、「これらの人々は戦っている。彼らの隅々で彼ら自身に同意させよう。人々は彼ら自身をサイロにさせよう」と彼は言った。 「他の人に部屋から声をかけさせたり、ディスカッションを終了させたりします。Perspectiveに3番目のオプションを作成してもらいたいのです。」

    Adamsはサンプルシナリオを作成しました。 1, 000人の部屋に尋ねると、「今日、あなたが本当に気にかけていることを読んでいる人は何人いますか?」 ほとんどのインターネットユーザーは、記事、ツイート、投稿、またはオンラインで読んだものを指し示します。 しかし、その後、「質問するか、議論するのに時間を費やす価値があると思った人は何人ですか?」 部屋のすべての手が下がります。

    「私たちの多くにとって、努力するだけの価値はありません。現在の議論の構造は、それが負債であることを意味します。現在の合理的な考えや共有したいことがあれば、ほとんどの人にとって参加したくない」とアダムズは言った。 「つまり、部屋にいる可能性のある1, 000人のうち、ディスカッションに参加できるのはほんの一握りです。たとえば10人です。他の990人をディスカッションに戻せる構造を構築できると確信しています。そして、彼らが彼らの時間の価値があると思う方法でそれをします。」

Googleのジグソーパズルがインターネットを解毒する方法