論文の概要: Augmentation for Learning From Demonstration with Environmental
Constraints
- arxiv url: http://arxiv.org/abs/2210.07015v1
- Date: Thu, 13 Oct 2022 13:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:09:03.156640
- Title: Augmentation for Learning From Demonstration with Environmental
Constraints
- Title(参考訳): 環境制約のある実演から学ぶための強化
- Authors: Xing Li, Manuel Baum, Oliver Brock
- Abstract要約: そこで本稿では,LfD (Learning from Demonstration) アプローチを導入する。
一つの人間のデモンストレーションから抽出したポリシーは、同じタイプの異なるメカニズムに一般化され、環境変動に対して堅牢である。
マルチDOFを用いた複雑なメカニズムに関する実世界の実験は、我々のアプローチが変化する環境におけるタスクを確実に達成できることを実証している。
- 参考スコア(独自算出の注目度): 18.35524179586723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a Learning from Demonstration (LfD) approach for contact-rich
manipulation tasks with articulated mechanisms. The extracted policy from a
single human demonstration generalizes to different mechanisms of the same type
and is robust against environmental variations. The key to achieving such
generalization and robustness from a single human demonstration is to
autonomously augment the initial demonstration to gather additional information
through purposefully interacting with the environment. Our real-world
experiments on complex mechanisms with multi-DOF demonstrate that our approach
can reliably accomplish the task in a changing environment. Videos are
available at the: https://sites.google.com/view/rbosalfdec/home
- Abstract(参考訳): 本稿では,関節機構を有する接触リッチ操作タスクに対するlfd(learning from demonstration)アプローチを提案する。
一つの人間のデモンストレーションから抽出したポリシーは、同じタイプの異なるメカニズムに一般化され、環境変動に対して堅牢である。
このような一般化とロバスト性を達成するための鍵は、環境と意図的に対話して追加情報を集めるために、最初のデモを自律的に増強することである。
マルチdofを用いた複雑なメカニズムに関する実世界実験により,我々のアプローチが変化環境において確実にタスクを遂行できることを実証した。
https://sites.google.com/view/rbosalfdec/home
関連論文リスト
- MILES: Making Imitation Learning Easy with Self-Supervision [12.314942459360605]
MILESは完全に自律的で自己管理型のデータ収集パラダイムである。
MILESは,1つの実演と1つの環境リセットから,効率的なポリシー学習を可能にする。
論文 参考訳(メタデータ) (2024-10-25T17:06:50Z) - Dreamitate: Real-World Visuomotor Policy Learning via Video Generation [49.03287909942888]
本研究では,与えられたタスクの人間による実演の映像拡散モデルを微調整するビジュモータポリシー学習フレームワークを提案する。
我々は,新しいシーンの画像に条件付きタスクの実行例を生成し,この合成された実行を直接使用してロボットを制御する。
論文 参考訳(メタデータ) (2024-06-24T17:59:45Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Learning Reusable Manipulation Strategies [86.07442931141634]
人間は「トリック」を習得し、一般化する素晴らしい能力を実証する
本稿では,機械が1つの実演と自己演奏によってこのような操作スキルを習得することを可能にするフレームワークを提案する。
これらの学習メカニズムとサンプルは、標準的なタスクやモーションプランナにシームレスに統合できる。
論文 参考訳(メタデータ) (2023-11-06T17:35:42Z) - A Survey of Demonstration Learning [0.0]
実証学習(Demonstration Learning)は、エージェントがデモンストレーションで示された専門家の行動を模倣してタスクを実行することを学習するパラダイムである。
デモから複雑な振る舞いを学ぶ大きな可能性を秘めているため、大きな注目を集めている。
環境と対話することなく学習することで、デモ学習はロボット工学や医療といった幅広い現実世界の応用を自動化できる。
論文 参考訳(メタデータ) (2023-03-20T15:22:10Z) - Cross-Domain Transfer via Semantic Skill Imitation [49.83150463391275]
本稿では、例えば人間ビデオなどのソースドメインからのデモンストレーションを利用して、強化学習(RL)を高速化する意味模倣手法を提案する。
関節速度のような低レベルな動作を模倣する代わりに、我々のアプローチは「電子レンジを開く」や「ストーブを回す」といった、実証された意味的なスキルのシーケンスを模倣する。
論文 参考訳(メタデータ) (2022-12-14T18:46:14Z) - Out-of-Dynamics Imitation Learning from Multimodal Demonstrations [68.46458026983409]
本研究では,実演者と模倣者が同じ状態空間を持つという仮定を緩和する,動的外模擬学習(OOD-IL)について検討する。
OOD-ILは、様々なデモ参加者のデモを利用するための模倣学習を可能にするが、新しい挑戦を導入する。
我々は,この新たな課題に取り組むために,より優れた伝達可能性測定法を開発した。
論文 参考訳(メタデータ) (2022-11-13T07:45:06Z) - Learning Feasibility to Imitate Demonstrators with Different Dynamics [23.239058855103067]
実演から学ぶことのゴールは、実演の動作を模倣してエージェント(模倣者)のポリシーを学ぶことである。
我々は、実演が模倣者によって実現可能である可能性を捉えた実現可能性指標を学習する。
シミュレーションされた4つの環境と実際のロボットを用いた実験により,本手法で学んだ方針が,従来よりも期待されたリターンを達成できることが判明した。
論文 参考訳(メタデータ) (2021-10-28T14:15:47Z) - State-Only Imitation Learning for Dexterous Manipulation [63.03621861920732]
本稿では,国家のみの模倣学習について考察する。
我々は、逆ダイナミクスモデルをトレーニングし、状態のみのデモンストレーションのアクションを予測するためにそれを使用します。
我々の手法は状態-作用アプローチと同等に動作し、RL単独よりもかなり優れています。
論文 参考訳(メタデータ) (2020-04-07T17:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。