東京工業大学のチーム志向越境型アントレプレナー育成(CBEC:Cross Border Entrepreneur Cultivating)プログラムは2017年2月18日、社会的な課題をハード/ソフトで解決するソリューション開発を同大学内の学生が競う「第3回東工大エンジニアリングデザインコンペティション」を開催した。一般に、この種のコンペは単なるアイデアの披露に終わりがちだ。しかし、当日は参加した13チーム中、12チームが実働する試作品を使って発表するなど、各テームとも実現可能性を真剣に検討していた。

 それぞれのチームが持ち時間8分でプレゼンテーションを実施。その後、展示会場で試作品をデモンストレーションした。これらを基に審査員が審査を行い、1位から5位を決定した。上位チームへの副賞としては、同大基金による学生スタートアップ支援、同年3月下旬に開催されるスタートアップイベント「Slush Tokyo 2017」へのブース展示権、協賛した「DMM.make AKIBA」の1カ月無料利用権が贈られた。

 優勝したのは、「東工大メディア研究会(TITAMAS)」が開発した視覚障害者向け杖型デバイス「Walky」。視覚障害者に向けて「何メートル先に○○があります」と音声で教えてくれるデバイスだ。

このイベントの統括責任者である東京工業大学 工学院経営工学系 教授の飯島淳一氏(左)と優勝チームの二人(右)
[画像のクリックで拡大表示]
このイベントの統括責任者である東京工業大学 工学院経営工学系 教授の飯島淳一氏(左)と優勝チームの二人(右)

 視覚障害者が外出する際には、白杖を使って前方を確認するが、白杖で認識できる範囲はごくわずかだ。そこで、超音波で前方の障害物を検知する白杖が実用化されている。ところが、実際には障害物だらけであるため、センサーが常に反応しっぱなしでほとんど役に立たないという。

 そこで、危険なものが「何」(トラックか、自転車か、人か、など)で「どこ」(何メートル先か)にあるかを伝えるデバイスを開発することにした。内蔵するカメラで取得した画像から、障害物の種類を判別。画像と超音波センサーから障害物までの距離をリアルタイムで把握する。視覚障害者は耳からほとんどの情報を得ているため、耳をふさぐイヤホンではなく、指向性スピーカーで利用者だけに音声を伝えるようにした。

Walkyの試作品。ユーザーが杖を持つと、ちょうど耳の位置に指向性スピーカーが音声を伝えるようにしている。
[画像のクリックで拡大表示]
Walkyの試作品。ユーザーが杖を持つと、ちょうど耳の位置に指向性スピーカーが音声を伝えるようにしている。

 画像認識には、米マイクロソフトがクラウドで提供している画像認識サービス「Computer Vision API」を利用した。通信にはデータ通信サービス「SORACOM Air」を利用。試作品は内部に小型コンピュータ「Raspberry Pi」を内蔵して処理を行っている。

Walkyのシステム構成図。画像認識にはマイクロソフトがAzureで提供している「Computer Vision API」を利用した。認識結果が英語で返ってくるため、「Translator Text API」で日本語に変換している。
[画像のクリックで拡大表示]
Walkyのシステム構成図。画像認識にはマイクロソフトがAzureで提供している「Computer Vision API」を利用した。認識結果が英語で返ってくるため、「Translator Text API」で日本語に変換している。