米Facebookは不適切な画像コンテンツを検出する人工知能(AI)技術を、ライブ動画配信サービスに導入する計画だと、英Reutersの記事を引用するかたちで、米メディア(Engadgetなど)が現地時間2016年12月1日に報じた。

 Facebook応用機械学習部門担当ディレクターのJoaquin Candela氏はReutersの取材に応じ、配信中のライブ動画に、ヌードや暴力といった利用規約に反するコンテンツがないか、AIを利用して自動検出するための技術を開発中であることを明かした。

 Facebookでは従来、ユーザーから報告を受けて、従業員が確認および判断した上で問題のあるコンテンツを削除していたが、同社は6月に、過激派のコンテンツを自動検出して削除する仕組みを導入していると報じられた。こうした自動化システムを現在、ライブ動画配信サービスでテストしているという。

 またFacebookはニュースフィードに掲載するニュースの処理を一部自動化していることを明らかにしたが、同社AI研究部門ディレクターのYann LeCun氏は、虚偽ニュースの特定にAIが使われているかどうかについては明言を避けた。「我々のAI研究は大幅な進展を遂げているが、それをサービスに組み込む最終的な判断はプロダクトチームが下す」と説明した(米Fortuneの報道)。