読み取りは触覚から聴覚へ
コンピュータ技術による革新は段階を経て徐々に成し遂げられてきた。かつての技術は,恐ろしく習得が難しく,かつ習得に時間がかかるものだった。さまざまなコンピュータ技術に触れるなかで,“真のアクセシビリティ”とは,「アクセスできる」のではなく「簡単にアクセスできる」ことだと身をもって体験した。
私がコンピュータと出会ったのは,1982年1月にさかのぼる。当時,音声や点字を出力する機器はなかった。そこで,私が初めに学ばなければならなかったのは,紙に印刷されるプログラムやコンピュータ画面を指先で読み取る技術である。(写真1[拡大表示])は「Optacon」という,視覚障害者の読書支援のために開発された機器だ。小型カメラでとらえた文字の形状に沿って,触知板(振動子が格子状に並んだ板)の振動子が振動する仕組みになっている。ユーザーは写真の右側にある小型カメラで文字を追い,本体の触知板に左手の指を載せ振動によって文字を読み取る。
ここでは,右手のカメラを正確に上下左右に移動させ,印刷された文字を左手で正確に読み取るという技を習得しなければならない。印字状態によって大文字のC/O/Dを区別すること,小文字のs/e/aを区別するのが本当に大変だったことは,今も忘れられない。情報処理の学習とは何の関係もないOptaconの習得は,苦痛以外の何物でもなかった。
今では考えられないようなコンピュータ環境で2年間の研修を無事に終了し,日本IBM 東京基礎研究所の学生研究員になった。当時,晴眼者の研究員は大型コンピュータに接続する端末を用いていた。私の場合は当然,Optaconを利用するのだろうと予測していた。
だが,これは大きく外れた。世界で初めて開発された音声出力機能を備えたホスト端末(3270 Talking Terminal)なるものが用意されたのである(写真2[拡大表示])。3270 Talking Terminalは,キーボードから入力した文字を瞬時に音声フィードバックし,画面上に表示した情報をカーソルキーの動きにあわせて音声出力した。触覚から聴覚を使う読み取りへと進化したことで,私のコンピュータ環境は飛躍的に向上し,学生研究員として無事に成果を出せた。1年後の1985年3月には,正社員として同研究所に入社した。
ここで紹介した二つの機械の大きな違いは,ユーザーが一所懸命に学習してやっと文字を一文字ずつ認識しなければならなかったOptaconに対し,3270 Talking terminalは,誰でもすぐに普通の文字を理解できること。この経験は「なんとか使える」から「使いやすい」への大きなパラダイムシフトであった。私は,人が技術に合わせるのではなく,技術が人に合わせて進化することの必要性を痛切に感じた。
実現性と実用性を重視した
アクセシビリティを研究するにあたり,私はそれぞれの時代のハードウェアとソフトウェアの能力および可能性を常に考えながら,「実現性と実用性」を重視して実際に役に立つものを開発するというポリシーを持っている。この考えに至ったのは,私が享受した素晴らしい技術をエンドユーザーに広く使ってほしいという思いを抱いたからだ。
もともと私がアクセシビリティの研究を始めるきっかけとなったのは,1985年に入社して以来,最新の技術に日常的に触れられるようになったことだった。自然な合成音声やOCRの精度の高さなど,いくつかの要素技術の発展を1980年代に身近に触れたことで,コンピュータが将来視覚障害者の視覚を代行するツールになるに違いないと確信した。
しかし,当時これらの要素技術を応用することは容易ではなかった。どんなに高度な要素技術が研究・開発されても,それらを視覚障害者が実際に利用できるアプリケーションとして提供するには莫大なコストがかかる。しかも1980年代のコンピュータ環境ではスピード,メモリー,ディスク・サイズ,どれをとっても視覚を代行する機能を実現するには不足していた。最先端のハードウェアを使った場合,当然ではあるがエンドユーザーである一般の視覚障害者にはとても手の届く価格ではなかった。
そこで実現性と実用性を兼ね備えたツールをいくつか開発した。1997年に開発した,ビジュアルなWebブラウザと同期して動く音声ブラウザを例に挙げよう。
インターネットが広まり始めた1995年ころ,Webページを読み上げるためには,なんとも回りくどい方法を採っていた。まずUNIXサーバー上でLynxと呼ばれるテキスト・ブラウザを動かす。そして,telnet接続したパソコン上で動作するDOSのスクリーン・リーダーで,Lynxを読み上げるというものだ。これでは,エンドユーザーが自宅で気軽に利用できない。そこで,Webブラウザと同期して動かすことで,パソコン1台で読み上げ機能を利用できるようにした。Webブラウザが持っている音声再生のためのプラグインなどを利用できるのも好評だった。
アクセシビリティの危機
Webブラウザの使い勝手が向上したのもつかの間,2000年に入ると「情報源消滅の危機」が生じた。Flashなど,従来の静止画を用いるWebインタフェースとは異なるGUIの採用が急速に進んだのだ。
情報提供側は多数派ユーザーからのアクセス拡大を目指し,日々,より使いやすくアピール性の強いWebの実現に努めている。その手段としてFlashなどが注目を浴びたが,音声ユーザーにとっては,視覚的効果を最大限に利用したWebレイアウトには理解困難な場面が多々生じる。
例えば,Flashで書かれたページにアクセスすると何の情報も得られないだけでなく,そこから先に進むことができなくなる。音声ブラウザはHTMLのタグ情報を解析して読み上げているが,Flashの場合,HTMLのタグ上では一つのオブジェクトになるためだ。音声読み上げソフトウェアが画面上の文字列を読み上げられなくなると,音声でアクセスするユーザーにとっては「なにも情報がない」状態になってしまった。
いつもアクセスしていたページが突然,アクセス不可能になったときの驚きと危機感を想像できるだろうか。PDFファイルも同様に,アクセスしてもまったく情報が得られず大きな危機感を持った。現在ではFlash側も音声ブラウザ側も機能が向上し,読み上げ可能な部分が増えてきたが,残念ながら世の中でアクセス可能なFlashを用いたサイトはいまだ非常に少ないのが現状である。
浅川 智恵子 Chieko Asakawa/日本アイ・ビー・エム 東京基礎研究所 主席研究員日本アイ・ビー・エム 東京基礎研究所 主席研究員 |