「ゲームって、夜作るんですよね。朝早く出てきて、皆さん大丈夫ですか?」。登壇するなり、こう切り出してCEDEC 2013の基調講演会場を和ませたのは、アンドロイド(人間型ロボット)の開発で有名な大阪大学の石黒浩教授だ(写真1)。

写真1●大阪大学の石黒浩教授。壇上に投影されているのは、石黒教授とそっくりのアンドロイド
写真1●大阪大学の石黒浩教授。壇上に投影されているのは、石黒教授とそっくりのアンドロイド
[画像のクリックで拡大表示]

 ゲーム業界向けに話すのは初めてという同教授だが、「ゲーム開発とロボット開発には接点があると思う」という。共通するのは、いずれも人間を理解すること。石黒教授の研究対象はロボットではあるが、その実現のために人間の観察と分析、理解が欠かせない。同教授の研究内容を紹介することで、ゲーム業界の人にも参考となり、相互の理解を深め、協力できるのではないかというのだ。

インタフェースは人間に近づく

 ゲーム業界で働く人にとって参考になりそうなことの一つが、インタフェースに対する考え方である。石黒教授によると、人間の脳は、人を認識すると敏感に反応して活性化する。従って、技術の進歩と共に、インタフェースが人間らしくなるのが当然というのだ。家電操作が、ボタン操作では使いにくく、音声インタフェースを取り入れる方向に向かうのも、その流れとする。

 「ロボットがどのような形で社会に入るか」というテーマについて石黒教授は、「センサーネットと遠隔操作の組み合わせ」というシンプルな答えを持っている。センサーの性能は向上しているものの、単体では人間の処理能力とは差がある。そこでセンサーをたくさん組み合わせることでセンサーネットワークあるいはセンサークラウドを構築し、そのインフラを自由に使えるようにすると良いというのだ。さらに、人間の知能を再現することも難しいので、これについては人間が遠隔からネットワーク経由で関与するのが解決策となる。

写真2●米国で実用化されているテレビカメラ搭載型のロボット
写真2●米国で実用化されているテレビカメラ搭載型のロボット
[画像のクリックで拡大表示]

 例として挙げたのが、ショッピングセンターで実証試験を行った誘導ロボット。顧客との対話の一部は遠隔から人間が行うものの、それ以外は自動化できることが実証された。これは7~8年前の取り組みなので、今ならKinect(音声やジェスチャー入力可能な、ゲーム機「Xbox 360」向けのデバイス)を使うことで、より正確な位置や表情認識が可能になるとした。

 オペレーターが1人いれば、5~6台くらいのロボットを同時に操作できるため、セキュリティ会社のビル監視などの用途には適しているとする。また、米国では、かかりつけの医者が患者と大病院に同行する必要がある場合において、ロボットが代行するという実績を紹介した(写真2)。