写真1●米インテルのアンドリュー・チェン副社長 Intel Researchディレクタ
写真1●米インテルのアンドリュー・チェン副社長 Intel Researchディレクタ
[画像のクリックで拡大表示]
写真2●インテルは「センサーやインタフェースの進化により、コンピュータ機器がカンブリア紀的多様化を迎える」と見る
写真2●インテルは「センサーやインタフェースの進化により、コンピュータ機器がカンブリア紀的多様化を迎える」と見る
[画像のクリックで拡大表示]
写真3●特定の人物のジェスチャーを判別する技術のデモ映像
写真3●特定の人物のジェスチャーを判別する技術のデモ映像
[画像のクリックで拡大表示]
写真4●モノの形状や堅さを考慮しながら握れる手のロボットのデモ映像
写真4●モノの形状や堅さを考慮しながら握れる手のロボットのデモ映像
[画像のクリックで拡大表示]
写真5●自動車の自動操縦技術のデモ映像
写真5●自動車の自動操縦技術のデモ映像
[画像のクリックで拡大表示]

 「近い将来、コンピュータは人の挙動や感情に配慮して、もっと効果的なやり方で支援できるようになる」。米インテルの副社長で、研究開発組織Intel Researchのディレクタを務めるアンドリュー・チェン氏はこう断言する(写真1)。米インテルは2008年4月1日、中国・上海で記者・アナリスト向けに研究開発活動を報告する記者説明会を開いた。チェン氏はプロセサの小型化と高性能化、そしてネットワーク技術の進展を背景に、コンピュータ同士が協調動作しながら人間の活動を支援するというビジョンを提示した。

 そのビジョンにたどり着くためのカギを握る技術は、モノや環境の変化を検知する各種のセンサー。「センサーで人間の感情や状態、周囲の環境を検知し、大量のデータを取得する。そのデータを分析し、ユーザーがおかれている文脈を推測する。こうすることで、人間の指示を待つしかなかったコンピュータは、人間の活動をより高度な形で支援できるようになる」。チェン氏はこう説明する。

 ユーザー・インタフェースも変わる。「ユーザーは手を振るようなジェスチャーや音声でコンピュータとコミュニケーションを取るようになるだろう」(チェン氏)。ほかの機器と情報をやり取りするためのインタフェース技術も進化する。基本的な制御は手元のモバイル・コンピュータが担うが、画像処理はテレビ側に搭載したGPU(画像処理ユニット)に任せる。モバイル機器とテレビ間の通信は近距離無線通信を使う、といった形である。「ふさわしい機器がふさわしい役割を担う」(チェン氏)のだ。

 さまざまなモノや場所にコンピュータが入り込む。それらが協調動作しながら、人間生活を支援する。この考え方は、坂村健氏が20年ほど前から提唱してきた「TRON」構想に近い。チェン氏は「これまでコンピュータは基本的に、大型コンピュータから携帯電話へと小型化する道を歩んできた。今後コンピュータ機器はさまざまな形へと多様化が進んでいく」と説明し、「カンブリア紀的多様化を迎える」と述べた(写真2)。

 チェン氏は今後の研究課題として、コンピュータによるデータの“翻訳”と“理解”を挙げる。「センサーやカメラなどで人間や環境のデータを大量に取得できるようになったが、問題はそれらのデータをうまく解釈し、適切なコンピュータの処理に結び付けることだ」(チェン氏)。現在インテルは外部の研究機関と協力しながら、特定の人物のジェスチャーを判別する技術や、携帯電話のカメラで撮った映像から玩具の種類を識別する技術、モノの形状や堅さを考慮しながら握れる手のロボット、自動車の自動操縦技術などを研究中だ(写真3~5)。さらに、ユーザーの行動や表情から現在の感情を推測し、そのユーザーの理解度に応じて情報の提示方法を変える技術を研究している。これはeラーニング・システムなどに応用できるという。

 米インテルは2008年4月2~3日に開発者会議「Intel Developer Forum(IDF)」を上海で開催する。