成果報告書詳細
管理番号20120000000866
タイトル平成20年度~平成23年度成果報告書 「次世代ロボット知能化技術開発プロジェクト 移動知能(サービス産業分野)の開発/移動知能(サービス産業分野)の研究開発」
公開日2012/8/15
報告書年度2008 - 2011
委託先名富士通株式会社 国立大学法人豊橋技術科学大学 株式会社セック 国立大学法人東京大学 国立大学法人奈良先端科学技術大学院大学 国立大学法人大阪大学 学校法人東京理科大学
プロジェクト番号P08013
部署名技術開発推進部
和文要約件名:平成20年度?平成23年度成果報告書 次世代ロボット知能化技術開発プロジェクト 移動知能(サービス産業分野)の開発 移動知能(サービス産業分野)の研究開発
公共施設等の人や障害物が混在する環境の中で作業する移動ロボットの実用化を目指し、視覚認識をベースとしたロバストで再利用性のある移動知能モジュール群を開発した。・共通基盤プロジェクトで開発したLSIを活用したステレオ画像処理ハードウェア、本ハードウェアを利用した画像処理用モジュール群、画像ランドマークとレーザセンサを用いた地図生成/自己位置認識モジュールを開発した。(富士通株式会社)・ステレオカメラと距離センサを用いた地図生成/自己位置認識モジュール、ステレオ視による人物発見・追跡モジュール、人・障害物混在環境下での経路計画モジュール、および各種モジュール開発・検証のための、動的環境シミュレータを開発した。(国立大学法人豊橋技術科学大学)・RTミドルウェアを用いた移動知能ロボットの構築を容易にするためのソフトウェア群および、ステレオ画像処理ハードウェア上でRTミドルウェアを利用するための仕組みを構築した。また、これらのソフトウェア群を用いて、画像処理コンポーネント群や移動制御コンポーネント群を開発した。(株式会社セック)・ステレオ画像処理ハードウェア上で動作する実時間3次元オプティカルフロー生成RTCやそれをベースとした自己・他者3次元運動分離認識RTCを開発した。また、ヘッドマウント型デバイスを開発することによって、ロボットや人間のような様々な移動体に取り付け可能な運動分離認識システムを実現した。(国立大学法人東京大学)・移動・作業知能に関するコンポーネントの再利用性検証・統合システム事例の創出を目的として、サービスロボット産業への応用を意識した知能モジュール群と統合システムを開発し、検証を行った。また、公開されているモジュールの組合せにより人物発見・対象物検出・UI・物体ハンドリングを実現し、日用品のハンドリングシステムを開発した。(国立大学法人奈良先端科学技術大学院大学)・把持対象物体の位置・姿勢推定情報を獲得する知能モジュールの性能を向上、および開発した知能モジュールの普及を目指した共通カメラインタフェースの策定を行った。共通カメラインタフェースについては、関連するモジュールの開発、およびツール群の開発も合わせて行った。(国立大学法人大阪大学) ・対人追従しながら荷物を運搬する場面を想定し、対人追従に係わる知能モジュール群を開発した。具体的にはレーザレンジファインダやステレオカメラを用いた人発見モジュールや走行制御モジュール等である。各種の移動ロボットで検証を行うと共に、屋内だけでなく屋外でも検証を行った。 (学校法人東京理科大学)当コンソーシアムの全機関で連携し、開発したモジュールのロバスト性と再利用性を検証するための実証実験を実施した。上記モジュールを搭載したロボットシステムがオフィス、食堂、展示会場等の複数環境で目的位置まで自己位置を見失うことなく移動できることを確認し、ロバスト性を実証した。また、各モジュールをサービスロボットenon、リファレンスハード等の車輪型ロボットやヒューマノイドロボット等の7種のロボットに搭載し、それぞれのロボットシステムが移動できることを確認し、再利用性も実証した。開発成果の普及のため、開発したモジュールの一般公開や国際ロボット展(2009年/2011年)でのデモ展示を行い、さらに、ステレオ画像処理ハードウェアは製品化し、販売を行っている。
英文要約Title: Intelligent RT Software Project (FY2008-FY2011) Final Report
The goal of our research is to develop reusable RT modules that enable robots to move robustly in a dynamic environment in which humans and robots coexist. We developed the following RT modules for mobile robots based on visual recognition. [Fujitsu Limited] We developed real-time image processing hardware for mobile robots and image processing RTCs that run on this hardware, and also developed SLAM RTCs and self-localization RTCs that use landmark images and an LRF sensor. We developed an autonomous locomotion system and verified the robustness and the reusability of our modules. [Toyohashi University of Technology] We developed the following: (1) a SLAM and a localization RTC, (2) a person tracking RTC, (3) a global and a local level path planner RTC, and (4) an environment simulator RTC for mobile robot software development. We have implemented and tested several experimental robot systems using these modules. [Systems Engineering Consultants Co., LTD.] We developed the middleware, which is the application framework and the test environment for Intelligent Mobile Robots. With this middleware the development and testing of RT-Components is easier. We also developed RT-Components for Intelligent Mobile Robots based on this middleware. [Tokyo University] Real-time recognition RTCs for simultaneous 3D self-motion and moving object motion were developed. A palletizing motion using an object recognition RTC with hand cameras on both hands was also developed. Furthermore, we developed an interoperable system between RTM and ROS. All developed RTCs were published with an OSS license. [Nara Institute of Science and Technology] The objective of our project is to validate the reusability of RT components by integrating service robot systems. We developed a handling system for daily commodities which is configured with open source modules (human detection, object recognition, user interface and object handling). [Tokyo University of Science] Target person following modules were developed for the realization of service robot systems that can follow a target person while carrying packages in an indoor/outdoor environment. Experiments with multiple robots provided undisputed evidence of the modules reusability. [Osaka University] The performance of a target pose estimation module was improved, and a common camera interface was designed for familiarizing the developed intelligent modules. Relevant modules and software tools were also developed. [Verification] We cooperated to conduct experiments to verify the robustness and the reusability of our modules. We demonstrated that our autonomous locomotion system can move to goals robustly in several environments such as a corridor, a lobby, a cafeteria and an exhibition hall. We also demonstrated that our modules can be used for several robots such as the service robot "enon", a reference hardware robot and the humanoid robot "HRP-2".
ダウンロード成果報告書データベース(ユーザ登録必須)から、ダウンロードしてください。

▲トップに戻る