成果報告書詳細
管理番号20110000001169
タイトル平成20年度~平成22年度成果報告書 次世代ロボット知能化技術開発プロジェクト コミュニケーション知能(社会・生活分野)の開発 家庭・生活コミュニティ向けロボットのコミュニケーション知能の開発
公開日2011/10/12
報告書年度2008 - 2010
委託先名日本電気株式会社
プロジェクト番号P08013
部署名機械システム部
和文要約次世代ロボット知能化プロジェクトの一環として、さまざまな事業者によるロボットシステムの構築を支援する目的で、モジュール利用により開発を効率化出来るコミュニケーション知能モジュール群を開発した。コミュニケーション知能モジュール群は、PC上で動作する人物状況検知、対話支援知能、対話制御知能、対話履歴管理の4つのソフトウェアモジュール群から構成される。音声認識、音声合成モジュールについてはPC上のソフトでの実現に加えて、次世代ロボット共通基盤開発で開発した小型の音声認識モジュールハードウェア上のソフトでも実装した。ソフトは次世代ロボット共通基盤開発のバージョンと比べて、それぞれ高齢者に対する音声認識性能の向上と音声合成の聞き取りやすさを向上したものを実現した。人物状況検知モジュール群では、周囲の人物を検出・識別する人物状況検知モジュールと周囲の人物のうちで対話する相手を同定する話者認識モジュールを実現した。人物状況検知モジュールでは、5m先にいる人物の場合、85.5%以上の精度で人物の向きまで含めて検出可能であるという評価結果を、顔照合の性能では、全シーンの81.3%で正しく照合できたという結果を得た。話者認識モジュールでは、基本構成の音源方向検出機能と人物検出機能に、ノイズキャンセルを適用することで、TV雑音が存在する環境下でも平均で約69%の性能という実用的なモジュール開発に成功した。対話支援知能モジュール群では、音声認識モジュール、音声合成モジュール、仕草合成モジュールにおいて、これまでに培ったノウハウを機能面に反映している。音声認識モジュールでは、動作環境に応じて柔軟に音声信号処理を構成出来るよう、再利用しやすい機能単位で音声信号処理のRTコンポーネントを開発した。仕草合成では、音声合成と仕草出力の連携により、仕草と合成音声を適切なタイミングで出力することを可能にした。音声認識の性能では、子供や高齢者を含む不特定話者の認識精度が、従来の88.6%から92.1%に向上した。加えて、24ビットのワイドレンジ化した音声入力ボードを新規開発し、マイクとの距離が1.5メートルの場合でも近距離と同等の認識精度を達成した。加えて、身振り・仕草認識モジュールでは“うなずき”、“首振り”、“指差し”の認識を、感情認識モジュールでは“笑い”、“驚き”、“普通”の認識を実現した。対話制御知能モジュール群、対話履歴管理モジュール群においては、「コンソーシアム1:知能プラットフォーム」で開発したシナリオ実行系との連携を前提としており、その拡張機能の位置付けとなる。ネットワーク上のシナリオコンテンツや対話履歴を活用する機能、および対話中に発生するエラー状態の検出機能とシナリオ作成を組み合わせて、豊富な対話バリエーションや柔軟かつロバストな対話インタラクションを可能とする。上記のモジュールは、OpenRTM-aist-1.0に準拠した形で実装しており、仕様書や利用マニュアルと共に、RTC再利用センターのHPに公開した。また、開発したモジュールは、NECで研究開発中のロボットPaPeRoとの連携によるロボット対話システムを実現することで、正常に動作することを検証した。また、動作検証の一環として、2009年1月21日に芝浦工業大学・豊洲キャンパスにおいて、11種類のRTCを使用した対話システムを含む4種類のデモンストレーションを成功させた。
英文要約Title:Intelligent RT Software Project: Development of Intelligent communication modules for livelihood support robot (FY2008-2010) Final Report
We have developed intelligent communication modules which enable various types of robot developers to make their desired systems and applications more efficiently. The intelligent communication modules consist of four module groups; a human situation detector module group, a dialogue assist function module group, a dialogue control module group, and an interaction log-management module group. Each module has been implemented based upon OpenRTM-aist-1.0 or 0.4.2. Most of all developed modules have been already released within the project members. Especially, the speech recognition module and the speech synthesizer module have been also implemented for the compact embedded board which was developed the Next-generation Robot Common Platform Development Project.We have developed a human situation detector module and a speaker detection module which belong to the human situation detector module group. The evaluation result of the human situation detector module shows that the module can detect a person and its face direction more than 85.5% in the front 5 meter area, and can identify a person in 81.3% scenes. By adopting our noise cancelling technique to the basic speaker detection module which consists of the sound source localization and the person detection, the module has accomplished about 69% of speaker detection accuracy in noisy environment where a TV sound output exists.We have developed a dialogue assist function module group including a speech recognition module, a speech synthesizer module, a robot behavior composition module, a gesture recognition module and an affective recognition module. The speech filtering components deployed between the audio capturing RTC and the speech recognition RTC have been designed and implemented with reusable functionality and interface. The behavior composition module enabled to output behavior data and speech synthesizer data timely by controlling the speech synthesizer RTC and the robot behavior composition RTC coordinately. The speech recognition module has improved from 88.6% to 92.1% in the case of unspecified speakers including child and elderly person. Furthermore, we have newly developed a 24bit wide-range audio capturing board which achieves the same speech recognition precision in the case of 1.5m distance between a microphone and a speaker as in near-field case.The dialogue control module group and the interaction log-management module group functionally enhance the scenario execution engine developed by “the consortium 1: intellectual software platform”. We have developed search and download function of scenario contents which have been stored in scenario servers equipped on the internet. Robot content developers can utilize newly developed two modules: the dialogue error detection module and the interaction log management module to realize flexible and robust interactions.Most of all modules have been implemented based upon OpenRTM-aist-1.0 and open to project members together with their specification documents and manuals. We have verified that the developed modules work well by adopting them on our formerly developed robot “Papero”. Also, four demonstrations including a robot dialogue system using 11 kinds of RTM module, were succeeded at Shibaura institute of technology on 21 Jan. 2009.
ダウンロード成果報告書データベース(ユーザ登録必須)から、ダウンロードしてください。

▲トップに戻る