論文の概要: R2BC: Multi-Agent Imitation Learning from Single-Agent Demonstrations
- arxiv url: http://arxiv.org/abs/2510.18085v1
- Date: Mon, 20 Oct 2025 20:24:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.560839
- Title: R2BC: Multi-Agent Imitation Learning from Single-Agent Demonstrations
- Title(参考訳): R2BC:シングルエージェントによるマルチエージェント模倣学習
- Authors: Connor Mattson, Varun Raveendra, Ellen Novoseller, Nicholas Waytowich, Vernon J. Lawhern, Daniel S. Brown,
- Abstract要約: 本稿では,1人の操作者が効果的にマルチロボットシステムを訓練できる手法であるR2BC(Round-Robin Behavior Cloning)を紹介し,研究する。
我々のアプローチでは、人間が一度に一つのエージェントを遠隔操作し、システム全体に段階的にマルチエージェントの振る舞いを教えることができる。
我々は,R2BC法が一致し,一部の場合において,特権的同期デモに基づいて訓練されたオラクル行動クローニング手法の性能を上回っていることを示す。
- 参考スコア(独自算出の注目度): 8.790468078980306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imitation Learning (IL) is a natural way for humans to teach robots, particularly when high-quality demonstrations are easy to obtain. While IL has been widely applied to single-robot settings, relatively few studies have addressed the extension of these methods to multi-agent systems, especially in settings where a single human must provide demonstrations to a team of collaborating robots. In this paper, we introduce and study Round-Robin Behavior Cloning (R2BC), a method that enables a single human operator to effectively train multi-robot systems through sequential, single-agent demonstrations. Our approach allows the human to teleoperate one agent at a time and incrementally teach multi-agent behavior to the entire system, without requiring demonstrations in the joint multi-agent action space. We show that R2BC methods match, and in some cases surpass, the performance of an oracle behavior cloning approach trained on privileged synchronized demonstrations across four multi-agent simulated tasks. Finally, we deploy R2BC on two physical robot tasks trained using real human demonstrations.
- Abstract(参考訳): イミテーション・ラーニング(Imitation Learning, IL)は、人間がロボットを教える自然な方法であり、特に高品質なデモンストレーションが容易に手に入る場合である。
ILはシングルロボットの設定に広く応用されているが、特に1人の人間が協力するロボットのチームにデモを提供しなければならないような環境では、これらの手法をマルチエージェントシステムに拡張する研究は比較的少ない。
本稿では,R2BC(Round-Robin Behavior Cloning)を提案する。
提案手法では,複数エージェントを同時に遠隔操作し,複数エージェントの動作をシステム全体にインクリメンタルに教えることができる。
我々はR2BC法が一致し、場合によっては4つのマルチエージェント・シミュレートされたタスク間の特権的同期化実演に基づいて訓練されたオラクル行動クローニング手法の性能を上回ります。
最後に、実際の人間の実演を用いて訓練された2つの物理ロボットタスクにR2BCをデプロイする。
関連論文リスト
- UniPrototype: Humn-Robot Skill Learning with Uniform Prototypes [4.338344229716167]
UniPrototypeは、共有モーションプリミティブを介して人間からロボットドメインへの効果的な知識伝達を可能にする新しいフレームワークである。
この結果から,UniPrototypeは人間の操作知識をロボットに伝達し,学習効率とタスク性能を大幅に向上させることができた。
論文 参考訳(メタデータ) (2025-09-27T00:33:39Z) - MASH: Cooperative-Heterogeneous Multi-Agent Reinforcement Learning for Single Humanoid Robot Locomotion [14.728331588105789]
本稿では, 協調型多エージェント深部強化学習(MARL)による単一ヒューマノイドロボットの移動促進手法を提案する。
実験により,MASHは訓練の収束を加速し,全身協調能力を向上させることが示され,従来の単エージェント強化学習法よりも優れていた。
この研究は、MARLをシングルヒューマノイドロボット制御に統合し、効率的な移動戦略に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2025-08-14T07:54:31Z) - DIRIGENt: End-To-End Robotic Imitation of Human Demonstrations Based on a Diffusion Model [16.26334759935617]
本研究では,人間の実演の観察から共同価値を生成するための新しいエンドツーエンド拡散手法であるDIRIGENtを紹介する。
我々は、人間がロボットを模倣するデータセットを作成し、この収集されたデータを使って、ロボットが人間を模倣できる拡散モデルを訓練する。
論文 参考訳(メタデータ) (2025-01-28T09:05:03Z) - EMOS: Embodiment-aware Heterogeneous Multi-robot Operating System with LLM Agents [33.77674812074215]
異種ロボット間の効果的な協調を実現するための新しいマルチエージェントフレームワークを提案する。
エージェントがロボットURDFファイルを理解し、ロボットキネマティクスツールを呼び出し、その物理能力の記述を生成する。
Habitat-MASベンチマークは、マルチエージェントフレームワークがエンボディメント認識推論を必要とするタスクをどのように処理するかを評価するように設計されている。
論文 参考訳(メタデータ) (2024-10-30T03:20:01Z) - MimicGen: A Data Generation System for Scalable Robot Learning using
Human Demonstrations [55.549956643032836]
MimicGenは、少数の人間のデモから大規模でリッチなデータセットを自動的に合成するシステムである。
ロボットエージェントは,この生成したデータセットを模倣学習により効果的に訓練し,長期的・高精度なタスクにおいて高い性能を達成することができることを示す。
論文 参考訳(メタデータ) (2023-10-26T17:17:31Z) - AR2-D2:Training a Robot Without a Robot [53.10633639596096]
専門的な訓練を要さないデモを収集するシステムであるAR2-D2を紹介する。
AR2-D2は、iOSアプリの形式で、あらゆるオブジェクトを操作する自身のビデオを記録するために使用することができるフレームワークである。
本研究では,本システムを用いて収集したデータにより,実物操作における行動クローニングエージェントの訓練が可能となることを示す。
論文 参考訳(メタデータ) (2023-06-23T23:54:26Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Learning Multi-Arm Manipulation Through Collaborative Teleoperation [63.35924708783826]
模倣学習(il)はロボットに操作タスクを実行するための強力なパラダイムである。
多くの現実世界のタスクは、重い物体を持ち上げる、デスクを組み立てるなど、複数のアームを必要とする。
複数のリモートユーザが同時にロボットアームを遠隔操作できるマルチユーザデータ収集プラットフォームであるMulti-Arm RoboTurk(MART)を紹介した。
論文 参考訳(メタデータ) (2020-12-12T05:43:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。