IBM東京基礎研究所は、従来よりも生物の神経回路に近い学習則を備えた人工ニューラルネットワーク「動的ボルツマンマシン(DyBM)」を考案し、英ネイチャー系列のオンライン科学誌「Scientific Reports」で公表した。時系列に並んだデータのパターンを学習、再現できる特長があり、音楽や映像、言語といった時系列データを認識する人工知能に応用できる可能性がある。

7つのニューロンからなるDyBMが、7×35のドットからなる「SCIENCE」のパターンを学習。パターンの一部を入力することで全体を再現した(出典:Scientific Reports)
7つのニューロンからなるDyBMが、7×35のドットからなる「SCIENCE」のパターンを学習。パターンの一部を入力することで全体を再現した(出典:Scientific Reports)
[画像のクリックで拡大表示]
20個のニューロンで、人類の進化を示すドットパターンを学習、再現した(出典:Scientific Reports)
20個のニューロンで、人類の進化を示すドットパターンを学習、再現した(出典:Scientific Reports)
[画像のクリックで拡大表示]

 従来の人工ニューラルネットワークは、生物の神経回路が学習を行う際の基本法則として1960年代に提唱された「ヘブ(Hebb)則」をモデル化したものだ。ヘブ則は、単純にいえば「ある神経細胞(ニューロン)が別の神経細胞を発火させると、両者を接合するシナプスが増強される」というもの。こうしたシナプスの変化(可塑性)が、脳の基本的な学習メカニズムとされる。

 このヘブ則をモデル化した人工ニューラルネットワークは「ボルツマンマシン」と呼ばれる。なかでも、ネットワークを層状に重ねた「制限付きボルツマンマシン」は、昨今の人工知能ブームのきっかけになったディープラーニングにも応用されている。

 ただし、人工ニューラルネットワークが採用したヘブ則では、信号(スパイク)を時系列に並べ、連続して入力した場合の学習法則は扱っていない。結果として、従来の人工ニューラルネットワークは、動画など時系列データの認識は苦手としていた。

 実際の生物の神経回路は、ヘブ則に時間の要素を取り入れ、より精緻化した学習則「スパイク時間依存可塑性(STDP)」に従うことが、1990年代頃から確認されている。IBM東京基礎研究所の研究員である恐神貴行氏と大塚誠氏は今回、このSTDPをモデル化した人工ニューラルネットワーク「動的ボルツマンマシン(DyBM)」を提案した。