米Googleは現地時間2017年6月18日、動画共有サイトYouTubeにおけるテロ関連コンテンツの撲滅に向けた4つの取り組みを発表した。

 GoogleのKent Walker法務顧問は「我々は何年にもわたって、当社ポリシーに違反するコンテンツの特定と削除に取り組んできた。しかし残念ながら実のところ、当社を含め業界全体として、さらなる対策が必要であることを認めなければならない」と述べている。

 新たな取り組みとして、テロ関連コンテンツの排除にさらなる技術を導入する。YouTubeではこうしたコンテンツの特定にすでに画像分析モデルを導入しており、過去半年間に削除したこれらコンテンツの50%は同モデルが検出したという。今後は、コンテンツ分類の精度を高めるための機械学習研究に、よりいっそうエンジニアリングリソースを投入する。

 技術の活用と合わせて、専門家も増強する。問題のあるコンテンツの特定について第三者機関と協力するプログラム「Trusted Flagger」に、新たに50のNGOを追加する。

 また、明確に当社ポリシーに違反しているわけではない動画に対してもより厳しい措置を講じる。例えば扇動的な宗教関連や至上主義的な動画には警告を表示し、広告掲載やコメント投稿ができないようにする。おすすめリストにも含まれないため、ユーザーから見つかりにくくなる。

 さらに、Googleの親会社Alphabetの傘下機関であるJigsawの「Redirect Method」手法を欧州の広範囲に導入する。Redirect Methodは、ターゲット型広告の技術を用いてISISに共鳴するユーザーにリーチし、ISIS参加を思いとどまらせるよう反テロリズム動画に誘導する。

 Googleや米Facebookなどは、テロ関連コンテンツの取締りが不十分だとして、強い批判を受けている。Facebookは今月、過去に削除したことのあるテロ関連コンテンツの再投稿防止や、テロ組織を擁護するテキストの検出などに人工知能(AI)を活用する取り組みを発表している。

[発表資料へ]