1. ホーム
  2. ニュース
  3. プレスリリース
  4. 遠隔二人羽織ロボット「Fusion」 他者の視点に寄りそう遠隔共同作業システムを開発

遠隔二人羽織ロボット「Fusion」
他者の視点に寄りそう遠隔共同作業システムを開発

  • プレスリリース

2018年8月9日

東京大学
慶應義塾大学
科学技術振興機構(JST)

1.発表者:

MHD Yamen Saraiji
(慶應義塾大学大学院メディアデザイン研究科 特任講師)
佐々木 智也
(東京大学 先端科学技術研究センター 学術支援専門職員)
南澤 孝太
(慶應義塾大学大学院メディアデザイン研究科 准教授)
稲見 昌彦
(東京大学 先端科学技術研究センター 教授)

2.発表のポイント: 

  • 複数人での動作や技能の共有のため、ロボットヘッドとロボットアームを搭載した遠隔共同作業システム「Fusion(フュージョン)」を開発しました。
  • 従来のテレイグジスタンス(注1)やテレプレゼンスロボット(注2)では難しかった視点共有を伴った共同作業を実現しました。
  • 地理的に離れた状況下での身体を介した共同作業や技能学習への応用が期待できます。

3.発表概要: 

社会性や専門的なコンテキストを含んでいる複数人での動作や技能の共有において、身体的な情報と紐づいた効果的なコミュニケーションは重要な要素になります。 しかし、遠隔でのコミュニケーションとなると、動作の共有は視覚的な情報に制限されます。本研究では、ウェアラブルロボットを用いて遠隔地から他者の身体に働きかけ、二人羽織のように他者の身体を操作することでコミュニケーションできる遠隔共同作業システム「Fusion(フュージョン)」を開発しました。
開発したシステムでは、遠隔地にいる操作者とロボット装着者の2人がほぼ同一の視点から空間を共有し、ロボットアームを介した身体的な共同作業を可能にしました。 ロボットアームの先端部は交換可能で、共同作業用のロボットハンドを手首用のバンドに取り換えて装着者の腕に取り付けることで、動作教示や運動の支援にも活用できます。
本研究の成果は、2018年8月12日にカナダのバンクーバーで行われる国際学会「SIGGRAPH 2018」にて発表します。

4.発表内容:

共同作業を通じた技能や知識の伝達においては、身体的な情報と紐づいた効果的なコミュニケーションが重要な役割を果たします。 一般に「相手の立場に立って考える」といわれるように、他人の視点になるということは、相手への共感や理解をする上で欠かせません。 また、日常のコミュニケーションには、言葉に加えてボディランゲージなどを交えた身体的なやりとりも含まれています。 さらに身体動作を含んだ技能学習などの状況では、トレーナーが学習者の四肢の位置や姿勢を直に動かして整えたり、手を引くなどして動きを誘導したりします。 しかし、遠隔地間では他者が見る対象や身体動作の情報が乏しくなるため、コミュニケーションや共同作業はより難しくなります。
本研究では上記の問題を解決するために、離れた他者の視点を共有することに着目し、身体を動かす度合いに応じて、Directed(直接的な共同作業)、 Enforced(動きの指示)、Induced(動きの誘導)の3つの状況を想定した遠隔共同作業システム「Fusion(フュージョン)」を開発しました。

これまでにも複数人による視点の共有によって遠隔共同作業を支援する研究はいくつか行われています。 装着式の全方向カメラを使用して他人の視点を再現し、遠隔地の景色を共有可能にする研究や、Mixed Reality(MR)(注3)を使って コミュニケーションのための非言語的な手がかりを提供する研究などです。 しかし、このようなシステムは手軽な方法である一方、身体動作を伴う遠隔共同作業には向いていません。 なお、複数人の身体動作を同期する目的で筋電気刺激(EMG)を使用した技能学習もありますが、動作軌跡があるような運動への適応はまだ行われていません。 本研究はこのような既存の制約に対して、可搬性と直感的な操作性を備えた遠隔共同作業システムを開発しました。

本システムは、二人羽織のようなウェアラブルロボットシステムによって身体的な情報を伴ったコミュニケーションを生み出し、 操作者と装着者がほぼ同一の視点から空間を共有する機能を与えるものです。システムの構成は、操作者側と装着者側に分かれます(写真1)。 操作者側は既製品のヘッドマウントディスプレイ(HMD)を着けて装着者のシステムにアクセスします。 装着者が身に着けたバックパックは3自由度のロボットヘッドと6自由度の人型ロボットアームを搭載しています。 アーム先端のロボットハンドは取り外し可能で、別のアタッチメントをつけることもできます。
バックパックはバッテリー駆動のため持ち運びが可能で、屋外でも使用できます(写真2)。このシステムでは、身体を介した Directed、Enforced、Inducedの3つのタイプのコミュニケーションができます。Directed タイプでは、ロボットハンドを使用した共同作業ができます。 Enforcedタイプは、アタッチメントを手首用のバンドに取り換えることで、装着者の手先の位置や姿勢を動かすことができます。 Inducedタイプでは、ロボットアームで装着者を引っ張ることで狙った方向に歩行を誘導することができます。

今後は、本システムによる遠隔共同作業性能の向上や技能学習のためのプラットフォームを開発する予定です。

5.研究プロジェクトについて:

本成果は、以下の事業・研究領域・研究課題による支援を受けて行われました。

  • 科学技術振興機構(JST) 戦略的創造研究推進事業 総括実施型研究(ERATO)「稲見自在化身体プロジェクト」 (課題番号:JPMJER1701、研究総括:稲見 昌彦)
  • 日本学術振興会(JSPS)基盤研究(A)研究課題名「身体共役系に基づく身体像拡張の機序解明とモデル化」(課題番号:15H01701)
  • 科学技術振興機構(JST) 戦略的創造研究推進事業(ACCEL)「触原色に立脚した身体性メディア技術の基盤構築と応用展開」(課題番号: JPMJAC1404)

6.発表について:

雑誌会議名:SIGGRAPH2018

発表タイトル:
Fusion - Full Body Surrogacy for Collaborative Communication
著者:
MHD Yamen Saraiji、Tomoya Sasaki、Reo Matsumura、Kouta Minamizawa、Masahiko Inami
DOI番号:
10.1145/3214907.3214912別ウィンドウで開く

7.問い合わせ先:

<研究内容に関するお問い合わせ先>

東京大学 先端科学技術研究センター
教授 稲見 昌彦

慶應義塾大学大学院メディアデザイン研究科
Embodied Media Project

<JST事業に関すること>
科学技術振興機構 研究プロジェクト推進部
内田 信裕

8.用語解説:

(注1) テレイグジスタンス :
人間が、自分自身が現存する場所とは異なった場所に実質的に存在し、その場所で自在に行動するという人間の存在拡張の概念、また、それを可能とするための技術体系。

(注2) テレプレゼンスロボット:
遠隔地において、あたかも現場にいるかのような映像や音声による臨場感を提供する技術を用いて遠隔操作するロボット。

(注3) Mixed Reality(MR):
現実世界に映像などのデジタル情報を融合させる技術、複合現実ともいう。

9.添付資料: 

図1
写真1:システムの構成
図2
写真2:屋外での使用例
ページの先頭へ戻る