論文の概要: Learn Task First or Learn Human Partner First: A Hierarchical Task
Decomposition Method for Human-Robot Cooperation
- arxiv url: http://arxiv.org/abs/2003.00400v3
- Date: Tue, 7 Dec 2021 17:19:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 13:23:00.030998
- Title: Learn Task First or Learn Human Partner First: A Hierarchical Task
Decomposition Method for Human-Robot Cooperation
- Title(参考訳): タスクファーストやヒューマンパートナーファーストを学習する:人間-ロボット協調のための階層的タスク分解法
- Authors: Lingfeng Tao, Michael Bowman, Jiucai Zhang, Xiaoli Zhang
- Abstract要約: 本研究は、ロボットが人間のパートナーの振る舞いを学習することとは別に、階層的動的制御タスクを学習できるようにする階層的報酬機構を備えた新しいタスク分解手法を提案する。
その結果、ロボットは、まずタスクを学習し、より高いチームパフォーマンスを達成し、次に人間を学習し、より高い学習効率を達成することが示唆された。
- 参考スコア(独自算出の注目度): 11.387868752604986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Applying Deep Reinforcement Learning (DRL) to Human-Robot Cooperation (HRC)
in dynamic control problems is promising yet challenging as the robot needs to
learn the dynamics of the controlled system and dynamics of the human partner.
In existing research, the robot powered by DRL adopts coupled observation of
the environment and the human partner to learn both dynamics simultaneously.
However, such a learning strategy is limited in terms of learning efficiency
and team performance. This work proposes a novel task decomposition method with
a hierarchical reward mechanism that enables the robot to learn the
hierarchical dynamic control task separately from learning the human partner's
behavior. The method is validated with a hierarchical control task in a
simulated environment with human subject experiments. Our method also provides
insight into the design of the learning strategy for HRC. The results show that
the robot should learn the task first to achieve higher team performance and
learn the human first to achieve higher learning efficiency.
- Abstract(参考訳): 動的制御問題に深層強化学習(DRL)を人間ロボット協調(HRC)に適用することは、ロボットが制御システムのダイナミクスと人間のパートナーのダイナミクスを学習する必要があるため、非常に難しい。
既存の研究では、DRLを動力とするロボットは、環境と人間のパートナーの同時観察を採用し、両方のダイナミクスを同時に学習する。
しかし、そのような学習戦略は学習効率とチームパフォーマンスの点で制限されている。
本研究では,ロボットが相手の行動を学習することとは別に,階層的動的制御タスクを学習できる階層的報酬機構を備えた新しいタスク分解手法を提案する。
本手法は人体実験によるシミュレーション環境における階層制御タスクを用いて検証する。
また,本手法は,HRCの学習戦略の設計に関する知見も提供する。
その結果、ロボットは、まずタスクを学習し、より高いチームパフォーマンスを達成し、次に人間を学習し、より高い学習効率を達成することが示唆された。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Coordination with Humans via Strategy Matching [5.072077366588174]
協調作業を行う人間と人間のチームを観察することにより、利用可能なタスク補完戦略を自律的に認識するアルゴリズムを提案する。
隠れマルコフモデルを使って、チームアクションを低次元の表現に変換することで、事前の知識なしに戦略を識別できます。
ロボットポリシーは、未確認のパートナーのタスク戦略に適応するMixture-of-Expertsモデルを構築するための、識別された戦略のそれぞれに基づいて学習される。
論文 参考訳(メタデータ) (2022-10-27T01:00:50Z) - Increased Complexity of a Human-Robot Collaborative Task May Increase
the Need for a Socially Competent Robot [0.0]
本研究では,タスクの複雑さがロボットパートナーの認知と受容にどのように影響するかを検討する。
本稿では,人間による障害物回避ロボット制御モデルを提案する。
論文 参考訳(メタデータ) (2022-07-11T11:43:27Z) - Co-GAIL: Learning Diverse Strategies for Human-Robot Collaboration [51.268988527778276]
本研究では,人間とロボットの協調実験から人間とロボットの協調政策を学習する手法を提案する。
本手法は対話型学習プロセスにおけるヒューマンポリシーとロボットポリシーを協調的に最適化する。
論文 参考訳(メタデータ) (2021-08-13T03:14:43Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Forming Human-Robot Cooperation for Tasks with General Goal using
Evolutionary Value Learning [9.053709318841232]
人間ロボット協力(HRC)では、ロボットは人間と協力してタスクを一緒に達成します。
既存のアプローチでは、人間が協力中に特定の目標を持っていると仮定し、ロボットはそれを推論し行動する。
HRCにおける目標仕様プロセスのダイナミクスをモデル化するEvolutionary Value Learning(EVL)アプローチを紹介します。
論文 参考訳(メタデータ) (2020-12-19T20:27:09Z) - Active Hierarchical Imitation and Reinforcement Learning [0.0]
本研究では,我々が開発した階層的模倣強化学習フレームワークを用いて,様々な模倣学習アルゴリズムを探索し,アクティブ学習アルゴリズムを設計した。
実験の結果,daggerと報酬ベースのアクティブラーニング手法は,トレーニング過程において身体的および精神的により多くの努力を省きながら,よりよいパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-14T08:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。