論文の概要: Real-World Human-Robot Collaborative Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2003.01156v2
- Date: Fri, 31 Jul 2020 19:10:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:40:25.816911
- Title: Real-World Human-Robot Collaborative Reinforcement Learning
- Title(参考訳): 実世界の人間-ロボット協調強化学習
- Authors: Ali Shafti, Jonas Tjomsland, William Dudley and A. Aldo Faisal
- Abstract要約: 本研究では,人間ロボットによる協調型迷路ゲームの現実的な構成について述べる。
ロボットエージェントの制御には深層強化学習を用い,実戦30分以内の結果を得た。
本研究では,人間とロボットエージェント間の時間的相互政治学習の結果を提示し,各参加者のエージェントがゲームプレイの表現として機能することを示す。
- 参考スコア(独自算出の注目度): 6.089774484591287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The intuitive collaboration of humans and intelligent robots (embodied AI) in
the real-world is an essential objective for many desirable applications of
robotics. Whilst there is much research regarding explicit communication, we
focus on how humans and robots interact implicitly, on motor adaptation level.
We present a real-world setup of a human-robot collaborative maze game,
designed to be non-trivial and only solvable through collaboration, by limiting
the actions to rotations of two orthogonal axes, and assigning each axes to one
player. This results in neither the human nor the agent being able to solve the
game on their own. We use deep reinforcement learning for the control of the
robotic agent, and achieve results within 30 minutes of real-world play,
without any type of pre-training. We then use this setup to perform systematic
experiments on human/agent behaviour and adaptation when co-learning a policy
for the collaborative game. We present results on how co-policy learning occurs
over time between the human and the robotic agent resulting in each
participant's agent serving as a representation of how they would play the
game. This allows us to relate a person's success when playing with different
agents than their own, by comparing the policy of the agent with that of their
own agent.
- Abstract(参考訳): 人間とインテリジェントロボット(embodied ai)の現実世界における直感的なコラボレーションは、ロボット工学の多くの望ましい応用にとって必須の目的である。
明示的なコミュニケーションに関する多くの研究があるが、人間とロボットがどのように暗黙的に相互作用するか、運動適応レベルに焦点を当てている。
本研究では,2つの直交軸の回転に動作を制限し,各軸を1人のプレイヤーに割り当てることにより,人間ロボット協調迷路ゲームの現実的な構成について述べる。
この結果、人間もエージェントも自分でゲームを解くことはできない。
我々は,ロボットエージェントの制御に深層強化学習を用い,実世界のプレイの30分以内に,いかなる事前学習も行わない結果を得る。
次に、この設定を用いて、協調ゲームのためのポリシーを共同学習する際に、人間/エージェントの行動と適応に関する体系的な実験を行う。
本研究では,人間とロボットエージェント間の時間的相互政治学習の結果を提示し,各参加者のエージェントがゲームプレイの表現として機能することを示す。
これにより、エージェントのポリシーと自身のエージェントのポリシーを比較して、エージェントが自分自身と異なるエージェントと遊ぶ場合の成功を関連付けることができます。
関連論文リスト
- HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Toward Human-AI Alignment in Large-Scale Multi-Player Games [24.784173202415687]
我々はXboxのBleeding Edge(100K+ゲーム)から広範囲にわたる人間のゲームプレイデータを解析する。
人間のプレイヤーは、戦闘飛行や探索飛行行動において多様性を示す一方で、AIプレイヤーは均一性に向かう傾向にある。
これらの大きな違いは、ヒューマンアラインアプリケーションにおけるAIの解釈可能な評価、設計、統合の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-05T22:55:33Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - Cooperative Artificial Intelligence [0.0]
我々は,ゲーム理論と人工知能の交わりに関する研究の必要性を論じる。
本稿では,外部エージェントが人工学習者の協調を促進する方法について議論する。
また, 計画エージェントをオフにしても, 結果が一定のゲームにおいて安定であることを示す。
論文 参考訳(メタデータ) (2022-02-20T16:50:37Z) - Creating Multimodal Interactive Agents with Imitation and
Self-Supervised Learning [20.02604302565522]
SFからの一般的なビジョンは、ロボットはいつか私たちの物理的空間に住み、世界は私たちのように感じ、肉体労働を補助し、自然言語を通して私たちとコミュニケーションする、ということだ。
本稿では,仮想環境の単純化により人間と自然に対話できる人工エージェントを設計する方法について検討する。
シミュレーションされた世界における人間と人間の相互作用の模倣学習は、自己指導型学習と合わせて、多モーダルな対話型エージェントを作るのに十分であることを示す。
論文 参考訳(メタデータ) (2021-12-07T15:17:27Z) - Co-GAIL: Learning Diverse Strategies for Human-Robot Collaboration [51.268988527778276]
本研究では,人間とロボットの協調実験から人間とロボットの協調政策を学習する手法を提案する。
本手法は対話型学習プロセスにおけるヒューマンポリシーとロボットポリシーを協調的に最適化する。
論文 参考訳(メタデータ) (2021-08-13T03:14:43Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。