世界中の数十億の人々が、実に様々な目的で YouTube にアクセスしています。なかなか見ることのできないコンサートを鑑賞したいときも、新たなスキルの習得を目指しているときも、YouTube では、多種多様なコンテンツや意見につながることができます。しかし、これを実現するにはコミュニティ保護への取り組みが不可欠です。そしてこの信条が、YouTube のすべてのシステムを機能させ、プロダクトのあらゆる側面を支えています。
今年は数回にわたって、YouTube が直面する大きな課題にどのように対処しているか、その舞台裏をご紹介し、YouTube が検討している各対策から生まれる複雑な影響についてもお伝えします。今後の投稿では、ポリシーの作成や更新、複雑で取り扱いが難しい問題に対する考察、コミュニティ保護の責任に関する重要な節目等についてご紹介することも検討しておりますが、第 1 回目の今回は、YouTube 上の有害な可能性のある誤った情報への取り組みについて詳しく説明します。
YouTube はこの 5 年間、「4 つの Responsibility(責任)」という YouTube 独自のフレームワークに大きく投資してきました。機械学習技術と人間によるレビューを組み合わせることで、迅速にコミュニティガイドラインに違反するコンテンツを削除(remove)し、信頼できる情報源からのコンテンツを見つけやすくし(raise)、問題のあるコンテンツの拡散を抑制(reduce)しています(その理由について詳しくは、こちらのブログ投稿をご覧ください)。悪質なコンテンツが視聴者の目に触れる機会を減らす一方で、プラットフォームとして表現の自由を維持するためには、これらの対策を組み合わせることが重要です。しかし、誤った情報があっという間に出現し、より広く拡散されるようになっている昨今、YouTube のアプローチもそれに応じて進化していく必要があります。YouTube のチームが取り組んでいる 3 つの課題は次のとおりです。
新たな誤った情報が拡散する前に対処する
何年もの間、オンラインで拡散される誤った情報のトピックはごく少数でした。たとえば、9.11 のテロや月面着陸にまつわる陰謀論、地球平面説などを思い浮かべてみてください。こうした長年の陰謀論が、対処すべきコンテンツのアーカイブとして構築されていきました。その結果、機械学習システムをトレーニングすることで、この類のコンテンツに含まれるパターンに基づいて検出された類似した動画がおすすめされる回数を減らすことができるようになりました。しかし瞬く間にまったく新しい論調の情報が次々と出現し、視聴回数を増やすようになりました。あるいは、動画内で、ある意見から他の意見に移っていくようなケースもあります。例えば、一般的な健康に関するトピックから話が始まり、ワクチン忌避に話題が移り変わっていくケースなどです。情報の内容や伝わり方はそれぞれ異なっており、地域に特化している場合もあります。
新型コロナウイルス感染症によるパンデミックの早期段階で、YouTube はまさにこの課題に直面しました。例えば英国では、 5G の基地局が新型コロナウイルスの感染拡大を引き起こしているという陰謀論が広がり、基地局が放火される事態が発生しました。これが現実の世界に及ぼすリスクは明確であったため、YouTube はガイドラインを更新してこの類のコンテンツを違反コンテンツとして扱うことにしました。このケースでは、地域および世界の公衆衛生機関のガイダンスに従って新型コロナウイルス感染症の誤った情報に関するポリシーをすでに策定してあったため、迅速に対処できました。
しかし、今後生まれるであろう変化の激しいトピックについて、YouTube のポリシーの根拠となる専門家のガイダンスが必ずしも用意されているとは限りません。また、誤った情報が新しいものであるほど、システムのトレーニングに使用できるサンプルが少なくなります。これに対処するため、YouTube は継続的に新しいデータでシステムをトレーニングしています。また、よりターゲットを絞った分類システムの組み合わせ、多数の言語でのキーワード、地域のアナリストから寄せられる情報を活用して、YouTube の主要な分類システムでは捉えられないトピックを特定する方法を模索しています。このような取り組みの成果として、いずれ、こうした誤った情報の拡散をより迅速かつ正確に捉えることができるようになるでしょう。
YouTube のシステムは、特定のコンテンツの拡散を抑制するだけでなく、検索結果やおすすめ動画で視聴者を信頼できるコンテンツと結びつけます。しかし、テーマによっては信頼できるコンテンツが少ないこともあり、これをデータの欠落と呼んでいます。たとえば、自然災害などのニュース速報を考えてみてください。災害が発生した直後の状況において、原因や被害者について憶測する、信頼できないコンテンツを目にするかもしれません。信頼できるコンテンツの制作には時間がかかるため、誤った情報が急速に拡散した場合、短期的には、視聴者に結びつけられる十分な信頼できるコンテンツが存在しない状況が起こりえます。そこで、自然災害などの重大なニュースでは、続報ニュースパネルを表示して、視聴者をテキストベースの記事に誘導しています。
クロス プラットフォームの問題 - 誤った情報の共有に対処する
もうひとつの課題は、ガイドラインのボーダーライン上の動画が YouTube 外で拡散することです。ボーダーライン上の動画とは、ポリシー上、削除に値する動画には該当しないものの、YouTube としては必ずしも視聴者におすすめできない動画です。YouTube は、おすすめ動画システムを全面的に見直し、おすすめ動画からのボーダーライン上のコンテンツの視聴を 1% 以下に抑え込むことができました。ただし YouTube が特定のボーダーライン上の動画をおすすめしなかったとしても、YouTube の動画にリンクする、または YouTube の動画を埋め込んだ外部ウェブサイトを介して、そういった動画が視聴される可能性は残ります。
対策のひとつとして考えられるのが、おすすめ動画に出るに相応しくないと判断されている動画に関しては、共有ボタンと外部リンクを無効にすることです。これにより、ボーダーライン上の動画を外部サイトに埋め込んだり、リンクしたりすることができなくなります。しかし YouTube では、共有を阻止することが視聴者の自由を制限することになってしまわないかという問題意識も持っています。YouTube のシステムはおすすめ動画からボーダーライン上のコンテンツを削減しますが、リンクの共有は視聴者の能動的な行動であり、おすすめされた動画を視聴するといった、受動的行動とは異なるのではないか、とも考えているからです。
また、背景を考慮することも重要です。場合によっては、調査研究やニュースのレポートに埋め込まれたボーダーライン上の動画については例外とする、または別の対応をとる必要があります。有害となる可能性のある誤った情報の拡散を制限する際は、同時に、こうしたデリケートなテーマや、物議を醸すテーマに関する議論の余地を残すよう、バランスに配慮しなければなりません。
別のアプローチとして考えられるのが、埋め込まれたり、リンクされたりしたボーダーライン上の動画を視聴する前に、そのコンテンツに誤った情報が含まれている可能性があることを伝えるインタースティシャル(全画面表示のメッセージ)を視聴者に対して表示することです。インタースティシャルによって視聴者はコンテンツを視聴または共有する前に「一時停止」することができます。YouTube ではすでに年齢制限のあるコンテンツおよび暴力的または生々しい動画に対してインタースティシャルを採用しており、これから視聴しようとしている対象動画に関して視聴者に選択肢を提供するための重要なツールであると考えています。
YouTube では引き続き、インターネットで有害な誤った情報が拡散するのを制限するための様々な方法を慎重に検討していきます。
誤った情報に関する取り組みを世界全体に広げる
誤った情報の抑制に対する YouTube の取り組みは実際に成果を上げていますが、サービスを提供している 100 以上の国々と多数の言語にこの取り組みを展開しなければならないため、その道のりは複雑です。
情報源の信頼度を判断する材料は文化によって異なります。たとえば、英国における BBC のように、公共放送局が信頼できるニュースを提供する情報源として広く認知されている国々があります。その一方で、公共放送局はプロパガンダに舵を切りがちだとみなされている国々もあります。また、ニュースとしてのコンテンツの範囲も国によって異なります。厳格なファクト チェックの基準を設けている放送局もあれば、検証をほとんど行わない放送局もあります。さらに、各地域の政治環境、歴史的背景、最新ニュースで扱われる出来事が、他国では見られないような、その地域固有の誤った情報を含むストーリーを生み出すことがあります。たとえば、ブラジルでジカウイルス感染症が流行した際、その病気は国際的な陰謀によって引き起こされたと主張する人々がいました。また、日本では、大きな地震が発生すると、何らかのデマが発生し拡散される傾向が歴史的に見られます。
このような地域ごとの多様性に直面したチームは、激しく変化する情報の論調や、信頼できる情報源の欠如など、新たな誤った情報に関するものと同じ多くの問題に突き当たりました。たとえば、パンデミックの初期段階では、自国の衛生機関によって最新の調査が実施されていない国があったり、国や地域によってガイダンスが異なることもありました。
何が「ボーダーライン」とみなされるかも、本当に多様な見方があります。YouTube では常に、コンテンツ審査担当者のガイドラインが、言語や文化によってどのように解釈され得るかを考慮しています。文化的背景について現地のチームや専門家と連携して把握し、動画がボーダーラインとして分類されるかどうか判断するためには、多くの時間を要します。
YouTube は、誤った情報と密接に関係している地域に固有のニュアンスを理解できる人材を追加してチームを拡大するだけでなく、世界中の専門家や非政府組織とのパートナーシップをさらに強化していきます。また、話題になっているテーマに対するアプローチと同様に、その地域に固有の誤った情報をより正確に捉えるために検知モデルを更新する頻度を増やし、それを各地域の言語に対応させていく取り組みを行っています。
透明性を強化する
YouTube は、すべてのプロダクトおよびポリシーにおいて有害な誤った情報を削減するための取り組みを続ける一方、多様な意見が尊重されるよう努めています。すべての答えが出ているわけではありませんが、YouTube が抱えている課題や問題点を共有することが重要だと考えています。今日ほど、コミュニティの安全と健全性のために取り組むことが急務であった時代はないでしょう。今後も、皆様に様々な情報をお伝えできることを楽しみにしています。
0 件のコメント :
コメントを投稿