YouTube のサービスを開始してからまもない頃から、YouTube で許可される行為を規定したコミュニティ ガイドラインがあります。このルールに則って、YouTube はクリエイティブな表現を促進すると同時に、有害なコンテンツからコミュニティ全体を保護することに優先的に取り組んでいます。YouTube 上に新しい考え方を取り込み、アイデアの共有を促すために、このバランスは不可欠です。また、YouTube の広告主は、有害なコンテンツと結びつけられることを決して望みません。だからこそ、YouTube の長期的なビジネスの成功のために、コミュニティの保護は重要な取り組みです。
YouTube には、禁止事項の線引きについて、あるいは、新しいポリシーの策定とその反映に長い時間がかかる理由について、度々質問が寄せられています(社会的責任を果たすための取り組み全般に関する YouTube の考え方については、こちらをご参照ください)。このブログでは、ポリシーの策定方法と、ポリシーを適用するプロセスを詳しく解説します。
ポリシー更新の必要性をどのように判断するか
急速な時代の変化に合わせて、YouTube のポリシーも変化していく必要があります。そのために YouTube は、法律の改正と同じように、ポリシーを定期的に見直して、 YouTube の内外で起こる変化を反映するようにしています。誤解のないように申し上げますが、YouTube 上の大部分のコンテンツは、ガイドラインに沿ったものです。それでも、ポリシーと現状にずれが生じていないかを確認したり、ポリシーが想定していない新たなリスクを早期に発見し対応できるよう、必要な取り組みを続けています。
現在の状況に合わせてポリシーを進化させ続けるにあたり、私たちは、「実社会への深刻な危害を防ぐ」というひとつの大きな目標に焦点を置いています。これは、YouTube から攻撃的なコンテンツをすべて削除するという意味ではありません。YouTube は基本的に、開かれた議論や、表現の自由は、社会に良い結果をもたらすと考えています。しかし、ユーザーや YouTube に深刻な危害を与えかねないコンテンツについては、禁止行為の線引きを慎重に行っています。
深刻な危害としてまず考えられるのが、物理的な危害です。たとえば、5G 技術と COVID-19(新型コロナウイルス感染症)の感染を関連付けた主張が原因(英語)で、英国で基地局が破壊されるという被害が生じたことがあります。その際 YouTube は、このような主張を行うコンテンツをポリシー違反とするポリシーの更新を迅速に行いました。あるいは、特定のコンテンツによって民主主義制度に対する大きな危害が引き起こされる可能性もあります。そのため YouTube は、投票に関する誤解を招くことを目的とした主張を許可していません。これには、投票時間や場所、投票資格の要件等に関する虚偽の情報を広めることなどが含まれます。
また YouTube は、NGO、学者、各国のさまざまな専門家と緊密に連携し、得られた知見をポリシーの見直しに活用しています。この連携により、新たな懸念事項について情報提供を受けたり、常に変化し続ける複雑なトピックについて理解を深めたりすることができます。例えば、パンデミック発生時には、米疾病対策センター(CDC)や世界保健機関(WHO)などの公衆衛生機関と連携し、COVID-19 に関する誤った情報を禁止するポリシーを定めました。その後、マスク着用義務や社会的距離の制限を緩和する方向に保健・医療機関のガイダンスが変化していくのに合わせて、マスクや社会的距離の有効性を疑問視するコンテンツに関するポリシーも更新しています。
どのように線引きを決めるのか
ポリシーの更新が必要な領域を特定したら、Trust & Safety チームが問題に合わせて解決策を練ります。まずはいくつかの点について確認します。対象となる有害なコンテンツが YouTube でどの程度一般的に見られるか(その数が増える可能性はどの程度か)、そのようなコンテンツに現行のコミュニティ ガイドラインがどのように適用されるか、などです。
その後、ポリシーでさまざまな線引きをした場合の影響を把握するため、数十本から、場合によっては数百本の動画を視聴します。ポリシーの線引きは、特定の動画だけではなく、すべての動画に影響します。このような影響を慎重に考慮するとともに、新しいガイドラインでどのような動画が削除され、どのような動画が残るのかを検証します。この広範囲に及ぶ審査に続いて、線引きの方法についての多数の選択肢を検討します。その際には必ず、各選択肢で削除または承認される動画の例を確認します。削除か年齢制限かといった、より適切な選択肢を確認することも必要です。
そして、選択肢から最良のものを選び、さらに精査を行います。この段階では、選んだ選択肢が次のような重要な目標を効果的に達成できるかどうかを確認します。
こうした目標を達成できると判断した場合は、YouTube のさまざまな部門長で構成されるグループが提案を審査します。最終的な承認は、YouTube の最高製品責任者および CEO を含む、最上位の経営陣が行います。線引きの内容について、チーム間でどうしても意見の一致を見ない点があれば、そのポリシーは草案の策定からやり直しとなります。
誰がポリシーの策定や措置に関する助言を行っているのか
ポリシーの策定プロセスを通して、ヘイトスピーチやハラスメント、暴力的な過激主義や、子どもの安全などさまざまなトピックについて定評のある、社外の専門家の専門的見地からのさまざまな知見をいただいています。
専門家は、世界で起こる出来事をきっかけに、有害なコンテンツが YouTube 全体に広まる可能性があるか予測を立ててくれます。YouTune の仕組みに欠けている点について注意喚起されたり、コミュニティ ガイドラインの更新が推奨されたりすることもあります。また、COVID-19 の場合のように、ガイダンスがめまぐるしく変わる状況下で、ポリシーを調整するために役立つ情報を提供してくれます。
このような連携は、地域特有の問題に対してポリシーを適用するためにも、非常に重要です。こうした問題では、コンテンツを地域特有の背景の中で適切に理解するために、言語や文化に関する専門知識が必要になることがよくあるからです。例えば、2021 年にミャンマーでクーデターが発生した際には、専門家と緊密に連携しつつ、民族宗教的な側面から憎悪や暴力をあおる発言をしているケースを特定しました。これにより、YouTube から違反コンテンツを迅速に削除することができました。
新たな問題に先んじて対応しているか
コンテンツを審査(モデレーション)する取り組みはあくまでも受け身で、システムやユーザーにより報告された場合にのみ対応すると考える人もいるでしょう。しかし実際には、将来に目を向けた仕事が大きな比重を占めています。新たな問題が、現実の脅威となって YouTube 上で広まる前に、それを把握できるよう、継続的に取り組んでいます。
新たな問題を発見するための取り組みは、YouTube の Trust & Safety チーム内にあるインテリジェンスデスクというチームが主導しています。このチームは、将来違反を引き起こす可能性のあるトレンド(誤情報の新たな媒介者や、危険なオンライン チャレンジなど)と、そうしたトレンドによりもたらされるリスクを特定しています。また、過激主義者による陰謀論など、現在生じている脅威を定期的に監視し、メディアでの広がり具合を追跡するとともに、それが時間とともにどのように変化しているかを評価しています。
こうした知見は、現在または将来のポリシーにおいて、新しい脅威をどのように管理するかを考えるために活用されます。例えば、インテリジェンスデスクが収集した証拠に基づいて、YouTube 上での有害な陰謀論への対応を強化するため、ヘイトスピーチに関するポリシーを更新(英語)しました。
ポリシーが一貫して適用されるよう、どのように取り組んでいるか
新しいポリシーの適用は、人間と機械学習技術の共同作業によって行われます。ポリシーの策定と適用を成功させるためには、人間と機械学習技術によるレビューを組み合わせて、一貫して精度の高いコンテンツの審査を実現する必要があります。
まずは、経験豊富なコンテンツ審査担当者で構成されたテスト グループに、ポリシー適用ガイドライン(コンテンツが違反とみなされる基準についての詳細な説明)を配布して、違反しているコンテンツと違反していないコンテンツを分別してもらいます。新しいガイドラインを使って精度の高い審査を実現できる場合は、テスト グループを拡大し、背景、言語、経験レベルが異なる何百人もの審査担当者に参加してもらいます。
この段階で、より多くの、多種多様なバックグラウンドを持った審査担当者のグループでも正確に解釈できるガイドラインにするための修正作業を開始します。このプロセスは、テストグループ全体で一様に高い審査精度を実現できるまで続き、完了までに数か月かかることもあります。テストのプロセスで得られた知見は、違反の可能性があるコンテンツを大規模に検出できるよう、機械学習テクノロジーをトレーニングするためにも活用されます。機械学習モデルに対しても、コンテンツ審査担当者と同様にテストを行います。機械学習モデルが適切にコンテンツを審査し、適宜、人間の審査担当者にレビューを回せるよう、ガイドラインが十分な情報を機械学習モデルに提供できているかテストします。
このテスト期間が終わったら、いよいよ新しいポリシーを設定できます。ただし、設定後も数か月にわたり細かな修正が加えられます。毎週、Trust & Safety チームのリーダーが、世界中の品質保証リーダー(コンテンツ審査チームの監督を担当するリーダー)とミーティングを行い、特に複雑な審査内容について議論するとともに、ポリシー適用の精度を確認します。また、必要に応じて、内容を補足したり、あるいは境界線上のケースについて明確化するために、ガイドラインの文言を微調整する修正案が作成されます。
ポリシーを適用する際に人間と機械がどのように協力しているのか
機械学習モデルのトレーニングが終わり、違反の可能性があるコンテンツを検出できるようになった後も、ポリシー適用プロセス全体を通して、コンテンツ審査担当者は重要な役割を果たします。機械学習は、コミュニティガイドライン違反の可能性があるコンテンツを大規模に検出し、コンテンツ審査担当者に提示します。コンテンツ審査担当者は、提示されたコンテンツを削除する必要があるかを判断します。
コンテンツ審査担当者のフィードバックをもとに機械学習モデルは継続的に学習し、適応していきます。この共同作業により、機械学習モデルの精度を徐々に向上させることができます。このようなポリシー適用システムによって、コンテンツがポリシーに違反しているかどうかを決定づける微妙なニュアンスを考慮しながら、YouTube にアップロードされる膨大な量のコンテンツ(毎分 500 時間超)を適切に管理することが可能になっています。
例えば、ヒトラーがニュルンベルク党大会で演説している様子を収めたコンテンツは、追加の文脈がなければ、ヘイトスピーチに関するポリシーに違反する可能性があります。しかし、ナチスの活動を非難するドキュメンタリーにこの演説のシーンが含まれている場合は、教育、ドキュメンタリー、科学、芸術(EDSA)のガイドラインに基づき許可されることがあります。EDSA のガイドラインでは、通常であれば違反となるコンテンツでも、教育用の動画や歴史ドキュメンタリーなどの場合は、十分な文脈が含まれているかどうかが考慮されます。
このような区別は、機械学習モデルにとっては認識するのが難しい可能性がありますが、コンテンツ審査担当者は追加的な文脈を簡単に見つけることができます。このような理由から、人間と機械が責任を共有し、力を合わせてポリシーを適用する方式を採用しています。また、ポリシー適用プロセスにおいて、人間の判断が常に重要である理由もお分かりいただけたと思います。実際、YouTube で違反の可能性があるほとんどのカテゴリーでは、機械学習モデルは単に動画をコンテンツ審査担当者に報告するにとどまり、コンテンツ審査担当者がそれを審査した後に実際の措置が講じられています。
成果をどのように測定しているのか
YouTube のあらゆる取り組みの原動力となっているのは、コミュニティ ガイドラインを守りながら、あらゆる人に表現の場を提供し、その声を世界中に届けるというミッションを実現することです。ポリシー適用の成果を 1 つの指標で把握するのは簡単ではありませんが、ステークホルダーやコミュニティのメンバーからのフィードバックに常に耳を傾け、改善の方策を探っています。また、YouTube のシステムやプロセスの透明性を高める取り組みも続けています(このブログもそうした取り組みの一環です)。
ポリシー適用の成果を測定するため、違反コンテンツの視聴率という指標を公開しています。この指標は、YouTube 全体の視聴回数のうち、違反コンテンツの視聴が占める割合を示すものです。2022 年の 7 月から 9 月までの間、この数値は 0.10~0.11% で推移しました。つまり、1 万回の視聴回数のうち、10~11 回がコミュニティ ガイドライン違反のコンテンツによるものでした。
また、システムの精度をより明確に把握すべく、削除された動画に対してクリエイターから提出された再審査請求の件数も追跡しています(YouTube のクリエイターであれば、誰でも利用できるオプションです)。例えば、上記と同じ期間中、コミュニティ ガイドライン違反で削除された動画は 560 万本以上に上りました。これに対する再審査請求を約 27 万 1,000 件受理し、審査した結果、約 2 万 9,000 件の動画を元に戻しました。
再審査請求件数、元に戻された動画の件数、違反コンテンツ視聴率などの指標は、審査の一貫性や精度を把握するための完璧な手段ではありませんが、一定の基準に基づいて継続的に成果を評価するために欠かせないものです。
コミュニティ ガイドラインは、世の中で用いられている言語や表現と関連しています。この 2 つは、その性質上、時間の経過とともに変化します。このように変化し続けるものを扱っているため、ポリシーの線引きが常に適切な位置にあるよう、今後も定期的に見直していくと同時に、透明性レポートを通じてコミュニティの皆様に最新のYouTube コミュニティ ガイドラインの適用に関する情報を引き続き提供してまいります。