論文の概要: Decomposing the Generalization Gap in Imitation Learning for Visual
Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2307.03659v1
- Date: Fri, 7 Jul 2023 15:26:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 12:10:51.989343
- Title: Decomposing the Generalization Gap in Imitation Learning for Visual
Robotic Manipulation
- Title(参考訳): 視覚ロボット操作のための模倣学習における一般化ギャップの分解
- Authors: Annie Xie, Lisa Lee, Ted Xiao, Chelsea Finn
- Abstract要約: シミュレーションにおける模倣学習ポリシーと実際のロボット言語による操作課題について検討する。
我々は、より制御された一般化評価を容易にするために、変化の11因子を持つ19のタスクのシミュレーションベンチマークを設計する。
- 参考スコア(独自算出の注目度): 60.00649221656642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What makes generalization hard for imitation learning in visual robotic
manipulation? This question is difficult to approach at face value, but the
environment from the perspective of a robot can often be decomposed into
enumerable factors of variation, such as the lighting conditions or the
placement of the camera. Empirically, generalization to some of these factors
have presented a greater obstacle than others, but existing work sheds little
light on precisely how much each factor contributes to the generalization gap.
Towards an answer to this question, we study imitation learning policies in
simulation and on a real robot language-conditioned manipulation task to
quantify the difficulty of generalization to different (sets of) factors. We
also design a new simulated benchmark of 19 tasks with 11 factors of variation
to facilitate more controlled evaluations of generalization. From our study, we
determine an ordering of factors based on generalization difficulty, that is
consistent across simulation and our real robot setup.
- Abstract(参考訳): 視覚ロボット操作における模倣学習における一般化の難しさ
この質問は、顔の値でアプローチすることは難しいが、ロボットの観点からの環境は、しばしば、照明条件やカメラの配置など、変化の数え切れない要因に分解される。
経験的に、これらの因子の一般化は、他の因子よりも大きな障害を示してきたが、既存の研究は、各因子が一般化ギャップにどの程度貢献するかを正確に示していない。
そこで本研究では,シミュレーションにおける模倣学習ポリシーと実ロボット言語による操作課題について検討し,各因子への一般化の難しさを定量化する。
また,一般化のより制御された評価を容易にするために,11因子の変動を伴う19タスクのシミュレートベンチマークを設計した。
本研究は,シミュレーションと実際のロボットのセットアップにおいて一貫した一般化難易度に基づく因子の順序を決定する。
関連論文リスト
- Problem Space Transformations for Generalisation in Behavioural Cloning [17.91476826271504]
この研究はロボット操作の幅広い特性を特徴づけている。
これらの特性から生じる変換によって、行動的クローニングによって訓練された神経ポリシーが、アウト・オブ・ディストリビューション問題インスタンスによりよい一般化を可能にすることを実証的に実証した。
論文 参考訳(メタデータ) (2024-11-06T17:05:58Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - RoboCodeX: Multimodal Code Generation for Robotic Behavior Synthesis [102.1876259853457]
汎用ロボット行動合成のための木構造多モードコード生成フレームワークRoboCodeXを提案する。
RoboCodeXは、高レベルの人間の命令を複数のオブジェクト中心の操作ユニットに分解する。
概念的および知覚的理解を制御コマンドにマッピングする能力をさらに強化するため、事前学習のための特別なマルチモーダル推論データセットを収集し、教師付き微調整のための反復的自己更新手法を導入する。
論文 参考訳(メタデータ) (2024-02-25T15:31:43Z) - Instruction-driven history-aware policies for robotic manipulations [82.25511767738224]
複数の入力を考慮に入れた統一型トランスフォーマー方式を提案する。
特に,我々のトランスフォーマーアーキテクチャは,(i)自然言語命令と(ii)多視点シーン観測を統合している。
RLBenchベンチマークと実世界のロボットを用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2022-09-11T16:28:25Z) - Learning Category-Level Generalizable Object Manipulation Policy via
Generative Adversarial Self-Imitation Learning from Demonstrations [14.001076951265558]
汎用的なオブジェクト操作スキルは、インテリジェントロボットが現実世界の複雑なシーンで働くために不可欠である。
本研究では,このカテゴリレベルのオブジェクト操作ポリシー学習問題に対して,タスク非依存の手法で模倣学習を行うことで対処する。
本稿では, 実演から生成的対人自己イメージ学習, 差別化の進行的成長, エキスパートバッファのインスタンスバランスなど, 汎用的ながら重要な手法を提案する。
論文 参考訳(メタデータ) (2022-03-04T02:52:02Z) - CausalWorld: A Robotic Manipulation Benchmark for Causal Structure and
Transfer Learning [138.40338621974954]
CausalWorldは、ロボット操作環境における因果構造と伝達学習のベンチマークである。
タスクは、ブロックのセットから3D形状を構築することで構成される。
論文 参考訳(メタデータ) (2020-10-08T23:01:13Z) - SQUIRL: Robust and Efficient Learning from Video Demonstration of
Long-Horizon Robotic Manipulation Tasks [8.756012472587601]
深層強化学習(RL)は複雑な操作タスクを学習するために用いられる。
RLは、ロボットが大量の現実世界の経験を収集する必要がある。
SQUIRLは、単一のビデオデモしか持たない、新しいが関連するロングホライゾンタスクを実行する。
論文 参考訳(メタデータ) (2020-03-10T20:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。