米Facebookは現地時間2017年6月15日、人工知能(AI)を利用して同社のSNSサービス上からテロ関連コンテンツを排除する取り組みについて明らかにした。

 Facebookはテロリストや過激派によるプロパガンダ拡散の場になっているとして、たびたび非難されている。同社は、これまでもテロ組織が投稿したコンテンツや、テロ行為を支持する内容のコンテンツを迅速に調査および削除していることを強調した上で、最近AIの活用を始めた対策について説明した。

 具体的には、AIによって、過去にFacebook上から削除したことのあるテロ組織による写真やビデオを認識し、誰かがそうした画像を投稿しようとするとこれを阻止する。

 また、ISISやアルカイダなどのテロ組織を擁護する文章の識別にAIを使い、テキストベースのシグナルを開発して試験的にアルゴリズムに実装した。

 さらに、これまでテロ関連で凍結された多数のアカウントと友だちでつながっていたり、属性が共通していたりするアカウントを検出するほか、テロ擁護のアカウントが繰り返し作成されるのを防止する。

 同社は現在のところ、ISISやアルカイダおよびその関連組織に関するコンテンツを中心に最新技術を利用しているが、他のテロ集団についても順次対策を広げていくとしている。

 また、AIやアルゴリズムだけでは削除すべきテロ関連コンテンツすべてを判断するのは難しいため、ユーザーからの報告をもとに調査する監視要員(モデレーター)も強化する。

 Facebookは2017年5月に、従来のモデレーター4500人に加え、新たに3000人を雇用して監視体制を強化する計画を明らかにしている(英Financial Times)。

[発表資料へ]