写真1:体表点字の説明図
写真1:体表点字の説明図
[画像のクリックで拡大表示]
写真2:手話通訳者の動きを解析
写真2:手話通訳者の動きを解析
[画像のクリックで拡大表示]
写真3:動画のつなぎ目を自動補完する
写真3:動画のつなぎ目を自動補完する
[画像のクリックで拡大表示]

 2005年12月14~16日に開催された「TRONSHOW2006」では、障害者支援を目的として開発された技術が来場者の注目を集めた。携帯情報端末やICタグを使い、視覚、聴覚、知覚などに障害を持つ人々の行動を助けるシステムである。

 指先で点字を読む代わりに、背中や胸、耳などに取り付けた振動子で点字を読み取る「体表点字」を披露したのは、日本点字図書館評議員の長谷川貞夫氏。12月10日にTRONSHOW2006のプレ・イベントとして開催された「TRONイネーブルウェアシンポジウム2006」で、同氏は「点字は約100年前にフランスで生まれたすばらしい発明。だが習得が難しく、読みこなせない視覚障害者は多い。最新技術を組み合わせて、点字をもっと使いやすいものにしたい」と語った。

 体表点字は、長谷川氏が筑波技術大学、群馬工業高等専門学校と共同で開発したもの(関連サイト)。通常の点字は、2.2~2.4ミリ間隔で縦に3個ずつ2列、合計6個の突起で表現する。ただし、点字は指先には繊細な感覚が要求される上、意味の習得が難しい。このため、完全に点字をマスターしている人は視覚障害者の中でも少数派である。長谷川氏はまず、微妙な指先感覚を駆使しなくても使える点字を目指し、1円玉大の振動子6個を背中などに貼り付ける方式を考案した(写真1)。

 それぞれの振動子は携帯情報端末に接続してあり、道を歩く際には駅などのランドマークの情報とその方角や距離を伝える。体表点字は文字情報を振動に置き換えて表現するだけではない。右や左の振動子を振るわせて曲がる方向を表現するなど、従来の点字にはない直感的な表現が可能である。音声でも同様のナビゲーションは可能だが「駅や道路では雑音が大きく、音声以外の手段が必要になる場合が多い」(同氏)という。構想自体は以前から公表していたが、今回、長谷川氏は自律移動支援プロジェクトの実証実験で有用性を確かめたことを報告。今後は、ICタグに記録されたランドマークのデータを携帯情報端末に読み込んで体表点字に出力するシステムを開発していく。

 沖電気工業は、あらかじめ撮影した手話通訳者の実写動画をつなぎ合わせ、文脈に沿った手話の動画を自動生成するシステムを公開した。素材となる手話通訳者の動画は、単語やフレーズ単位で記録しているので、それぞれのつなぎ目で動きがぎこちなくなりやすい。そこで沖電気は、通訳者の動きを自動的に解析する技術を開発(写真2)。つなぎ目の前後の動画がスムーズにつながるように補完するフレームを自動生成できるようにした(写真3)。

 「移動中の聴覚障害者にとって、文字よりも手話動画の方が直感的に分かりやすい」(同社)という理由から、携帯情報端末のユビキタスコミュニケータで動画を再生するシステムを開発した。

 厚生労働省の国立身体障害者リハビリテーションセンター研究所は、「地誌的障害」と呼ぶ認知障害を持つ人向けに開発中のソフトウエアを披露した。地誌的障害とは、交通事故や脳梗塞などで脳のある部位が損傷し、見慣れた道で迷ったり地図が読めなくなる障害のこと。ランドマークの前後関係を把握したり、目で見た風景を地図に抽象化するといったことが困難になる。

 そこで、同研究所は、経路上に現れるランドマークとその風景写真を、順番に携帯情報端末の画面に表示するソフトウエアを開発した。ユーザーが経路探索すると、あらかじめ記録したランドマーク情報の中から、ナビゲーションに必要な情報を選び出し、写真とともに刻々と表示する。今後は、東京大学の坂村健教授などが進める「自律移動支援プロジェクト」に対して、地誌的障害者を対象としたナビゲーションのノウハウを提供していく予定である。

■TRONSHOW2006の特設ページはこちら