成果報告書詳細
管理番号20140000000022
タイトル平成23年度-平成24年度成果報告書 災害対応無人化システム研究開発プロジェクト 作業移動機構の開発 遠距離ヒューマンインターフェイスの開発
公開日2014/3/19
報告書年度2011 - 2012
委託先名株式会社東芝
プロジェクト番号P11018
部署名技術開発推進部
和文要約遠隔操作ヒューマンインタフェース(HIF)の開発では、機器毎の個体差を低減して操作習熟時間を短縮し、メンテナンスに要する時間も短縮することを目的に、主に2つの技術的開発課題を実施した。1つは遠隔操作性向上のためのカメラ画像表示技術の開発で、もう1つは遠隔操作系の共通インタフェース(IF)技術の開発である。1つ目の遠隔操作性向上のためのカメラ画像表示技術の開発では(a)-(c)を実施した。(a)カメラの操作性および視認性向上技術として、加速度センサやジャイロを搭載したヘッドマウント・ディスプレイで操作者の頭の動きを検出し、カメラをパン・チルトさせるカメラシステムを開発した。カメラが操作者の頭の動きと連動することで、遠隔でのカメラ操作性と視認性向上が確認できた。次に、(b)カメラ画像へのセンサデータ重畳表示技術では、測域センサから取得した距離データでコンピュータグラフィックを用いて、実写画像に重畳する画像処理技術を開発した。被験者6人がクランク走行テスト(10m)を行い、操作時間を平均30%短縮させる効果が得られた。さらに、(c)複数画像を用いた別視点画像生成技術と画像からの視野妨害ノイズ除去技術の開発を、再委託の東京大学(山下研究室)で実施した。これは、4台の魚眼カメラをロボットの前後左右方向に設置して画像を取得し、画像の変換・合成処理でロボットを上から眺めた別視点画像を生成して表示する技術である。また、画像のノイズ除去技術では、取得画像中のノイズの部位を特定し、ノイズを除去する手法を開発した。検証には、放射線環境下で撮影された実映像を用いた。一方、2つ目の遠隔操作系共通インタフェース技術の開発では、次の(a)-(c)を実施した。(a)移動ロボット系操作IFの共通化仕様の策定と検証として、コンソーシアム内での議論から、機種の異なる移動ロボットに適用できる操作IFの共通仕様を策定した。策定仕様に基づき、携帯性・堅牢性を有し災害現場で使用可能な携帯型遠隔操作HIFを試作開発した。ゲームパットで遠隔機器を操縦し、タッチパネルでカメラ画像を操作する。メーカの異なる複数のネットワークカメラに接続して、複数画面を一括表示することができる。(b)作業アーム系操作IFの共通化仕様の策定と検証では、機種の異なる作業アームに適用できる操作IFの共通仕様を策定した。また、複雑な作業応用に向けて高機能インプットデバイスを開発し、複数の異なる作業アームを操作できることを検証した。さらに、(c)遠隔操作IFの操作性に関する評価基礎実験を再委託の芝浦工業大学(松日楽研究室)で実施した。カメラ搭載移動ロボット、環境設置カメラ、操作装置とディスプレイからなる遠隔ロボットシステムの実験環境を構築し、カメラ画像の更新頻度、測域センサによる距離の表示、障害物の接近検出自動停止、自動停止時の操作装置への反力提示などの条件で実験を行い、移動時間、操作回数、障害物への衝突回数など遠隔操作時の操作性を評価した。以上の遠隔操作HIFで開発した技術や試作した操作デバイスシステムは、千葉工大で行われた成果報告会(2/20)でコンソーシアム各社が開発した遠隔機器の操作に適用され、検証試験の一環として実演デモに使用された。また、開発成果創出促進による追加開発では、上記の携帯型遠隔操作HIFをもう一式追加で試作開発し、先に開発した操作HIFシステムと併用して各社開発の遠隔機器の操作に適用し、成果報告会で活用した。
英文要約Title: Research and Development Project for an Unmanned Disaster Response System. Development of Mobile Mechanism for Working Tasks (3) Development of Human Interface for a Remote Control (FY2012-2013) Final Report

On the development of a remote control human interface (HIF), our aims are fast learning of operation and fast maintenance. We mainly developed two technologies: (1) Displaying camera images for remote control and (2) Common interface for remote control. On the first technology, we performed following (a) - (c). (a) Methods on controlling camera and method on enlarging field of view: The head posture of an operator is estimated by a head mount display equipped with an acceleration sensor and a gyro sensor. Based on the head posture, the remote camera is controlled. We confirmed camera was controlled easily and the view was enlarged. (b) Superimposing sensor data to camera image: Depth data measured by a laser range finder is superimposed to remote camera images from a robot. We performed experiments that 6 subjects manipulate a remote robot along a test course (10m). The average time of operating the robot based on our method was 30% less than that of operating based on a previous method. (c) Bird’s eye view and noise reduction (developed by Tokyo University): The bird's eye view is made by 4 fish-eye cameras equipped on the sides of the robot. For a noise reduction, noise region is detected. The noise reduction worked well on images captured under a radiation environment. On the second technology, we performed following (a) - (c). (a) Common design of controlling robot movement and evaluation: We proposed a common design based on a discussion in a consortium and developed the mobile and robust HIF which could be used in a disaster area. According to our design, the robot is controlled by a game controller. The camera is controlled by a touch panel. Our interface realizes the control of various cameras. The operator can simultaneously see multiple images captured by them. (b) Common design of manipulating robot arms and evaluation: We proposed a common design in order to manipulate various arms by the uniform interface. For a complex manipulation, we developed a high performance input device and confirmed that it could manipulate various arms. (c) Evaluation of HIF (performed by Shibaura Institute of Technology): We designed an experimental environment which consisted of a robot with cameras, environmental cameras, a manipulator and a display. We measured an operation quality in various conditions. The quality consisted of evaluation values, duration of operation, a number of operations, a number of collisions between obstacles and the robot, and so on. We demonstrated that our HIF could control various remote machine developed by various companies at the Chiba Institute of Technology on February, 20. And for an additional development, we made one more mobile remote control HIF, and use effectively for the demonstration with this HIF system.
ダウンロード成果報告書データベース(ユーザ登録必須)から、ダウンロードしてください。

▲トップに戻る