東京大学大学院情報学環教授の暦本純一氏は拡張現実(AR=Augmented Reality)研究の第一人者。90年代から,現在提案されている様々なARアプリケーションの原型と呼べるシステムを多数開発・発表してきた。2月26日開催のカンファレンス「AR(拡張現実)ビジネスの最前線」で基調講演をお願いしている暦本氏にARの過去と未来,商用化などについて話を聞いた。

(聞き手は,武部 健一=日経コミュニケーション


ARの研究を始められたきっかけを教えて下さい。

東京大学大学院情報学環教授 暦本純一氏
東京大学大学院情報学環教授 暦本純一氏
現在,ソニーコンピュータサイエンス研究所インタラクションラボラトリー室長とクウジット創業者兼特別顧問を兼ねる。(写真:的野 弘路)

 もともとは1990年代の初頭にVR(Virtual Reality,仮想現実)を少し研究していました。“データグローブ”などを使う古典的なVRです。ただ,あれはやはり無理そうな気がしました。特殊な環境でしか使えないだろうと。そこでVRのような方向の研究よりは,もっとリアルワールドに直接作用する研究の方が良いと思いました。

 ARを具体的に研究しようと考えたのは92年くらいです。一番最初に取り組んだのは,今ですと「セカイカメラ」とほとんど同じコンセプトで「NaviCam」というもの。94年に作りました。カメラで見ると情報がオーバレイされるAR的な世界を10数年前の技術で構成しました。

どういった仕組みだったのですか。

 二つあって,一つはバーコード。初めは1次元バーコードで,その後「CyberCode」という2次元バーコードを使いました。CyberCodeは,QRコードもない時代だったので独自に考えたものです。当初は(バーコードではない)画像認識にしようと思ったのですが,当時の技術では処理に時間がかかるので無理でした。

 カメラを向けるとバーコードを認識して情報を出す。これが第一歩でした。ハンドヘルドのARで,ビデオカメラで現実の情報と,関連するコンピュータの情報を同時に映し出すシステムとしては世界初だったと思います。フレームレートは15フレーム/秒くらい出ていました。

 これにジャイロセンサーを組み合わせたハイブリッドなシステムが第二歩目でした。ジャイロセンサーを使うと相対的なトラッキングができる。バーコードが無くてもある程度(ユーザーの動きに)追従できました。

 94年だとPDA(携帯情報端末)が「ザウルス」や「ニュートン」くらいしかなかった時代です。カメラ付きのデバイスはもちろんありません。そこで無理やりカメラと液晶テレビを組み合わせて,ビデオケーブルをシリコングラフィックス製のコンピュータにつないで,ケーブルを引きずりながら歩き回る,というシステムでした。

 ニール・ディナーリ氏という建築家がいるのですけれど,東京で開かれた彼の“インスタレーション”(空間全体を作品と見立てる芸術)でNaviCamを使ったこともあります。2次元バーコードのIDを貼り付けて,NaviCamのデバイスで映し出すと情報が出てくるというものです。これは一般のお客さんにも使ってもらいました。

その2次元バーコードであるCyberCodeはどのような経緯で開発されたのですか。

 その頃,磁気センサー(3次元センサー)を使って2~3人の間で拡張空間をシェアできる“共有AR”にも取り組んでいました。センサーとカメラを組み合わせて,この位置にカメラがあったらCG(コンピュータ・グラフィックス)はこう見える,という具合に描画するものです。CG自体はチープだったのですが,影もあって,背景や位置合わせをキチンと行うと,非常に実在感が出ました。

 ただ磁気センサーだとセンサーの周囲1メートルくらいでしか使えませんし,そもそも磁気センサーという特殊なハードウエアが必要となる。そこでどうにかしてカメラだけでARを実現できないかと考えて作ったのがCyberCodeです。

 CyberCodeは中心にID認識のためのマークがあって,周囲の四角形の変形具合から3次元を認識できるものです。IDを認識して,位置が分かればあとはCGをオーバーレイするだけです。本を開けばCGが飛び出すとか,博物館でアノテーションに使うとか,最近「初音ミク」で流行しているようなことができました。