論文の概要: Improving Generalization Ability of Robotic Imitation Learning by Resolving Causal Confusion in Observations
- arxiv url: http://arxiv.org/abs/2507.22380v1
- Date: Wed, 30 Jul 2025 04:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.999052
- Title: Improving Generalization Ability of Robotic Imitation Learning by Resolving Causal Confusion in Observations
- Title(参考訳): 観測における因果拡散の解消によるロボット模倣学習の一般化能力の向上
- Authors: Yifei Chen, Yuzhe Zhang, Giovanni D'urso, Nicholas Lawrance, Brendan Tidd,
- Abstract要約: 本稿では,近年の模倣学習アーキテクチャに容易に組み込むことができる因果構造学習フレームワークを提案する。
ムジョコにおけるALOHA[31]双対ロボットアームのシミュレーションを用いて,本手法を実証する。
- 参考スコア(独自算出の注目度): 3.2389875818890124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments in imitation learning have considerably advanced robotic manipulation. However, current techniques in imitation learning can suffer from poor generalization, limiting performance even under relatively minor domain shifts. In this work, we aim to enhance the generalization capabilities of complex imitation learning algorithms to handle unpredictable changes from the training environments to deployment environments. To avoid confusion caused by observations that are not relevant to the target task, we propose to explicitly learn the causal relationship between observation components and expert actions, employing a framework similar to [6], where a causal structural function is learned by intervention on the imitation learning policy. Disentangling the feature representation from image input as in [6] is hard to satisfy in complex imitation learning process in robotic manipulation, we theoretically clarify that this requirement is not necessary in causal relationship learning. Therefore, we propose a simple causal structure learning framework that can be easily embedded in recent imitation learning architectures, such as the Action Chunking Transformer [31]. We demonstrate our approach using a simulation of the ALOHA [31] bimanual robot arms in Mujoco, and show that the method can considerably mitigate the generalization problem of existing complex imitation learning algorithms.
- Abstract(参考訳): 近年の模倣学習は、ロボット操作がかなり進歩している。
しかし、模倣学習の現在の技術は、比較的小さなドメインシフトの下でも性能を制限し、一般化の貧弱さに悩まされる。
本研究では、複雑な模倣学習アルゴリズムの一般化能力を高め、トレーニング環境からデプロイメント環境への予測不可能な変更を処理することを目的とする。
対象の課題に関係のない観察による混乱を避けるため,観察コンポーネントと専門家の行動の因果関係を,[6]に似た枠組みを用いて明示的に学習し,模倣学習方針の介入によって因果構造関数が学習される手法を提案する。
ロボット操作における複雑な模倣学習プロセスにおいて, [6] のような画像入力から特徴表現を遠ざけることは困難であり, 因果関係学習において, この要件が不要であることを理論的に明らかにする。
そこで本研究では,Action Chunking Transformer[31]のような,最近の模倣学習アーキテクチャに簡単に組み込むことができるシンプルな因果構造学習フレームワークを提案する。
ムジョコにおけるALOHA[31]双対ロボットアームのシミュレーションを用いて本手法を実証し,既存の複雑な模倣学習アルゴリズムの一般化問題を著しく軽減できることを示す。
関連論文リスト
- Imitation Learning in Continuous Action Spaces: Mitigating Compounding Error without Interaction [23.93098879202432]
本研究では,連続的な状態と動作の力学系において,専門家のデモレータを模倣する問題について検討する。
連続的状態と行動の模倣学習における複合的誤りを軽減するための最小限の介入を提案する。
論文 参考訳(メタデータ) (2025-07-11T22:36:39Z) - Modeling Unseen Environments with Language-guided Composable Causal Components in Reinforcement Learning [15.594198876509628]
構成因果成分を用いた世界モデリング(WM3C)について紹介する。
このフレームワークは、因果成分の学習と活用による強化学習を強化する。
我々のアプローチは、潜在空間を意味のある構成要素に分解するために、言語を構成モダリティとして統合する。
論文 参考訳(メタデータ) (2025-05-13T09:08:28Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - ReIL: A Framework for Reinforced Intervention-based Imitation Learning [3.0846824529023387]
Reinforced Intervention-based Learning (ReIL) は、一般的な介入に基づく学習アルゴリズムとマルチタスク模倣学習モデルからなるフレームワークである。
実世界の移動ロボットナビゲーションの課題による実験結果から、ReILは性能の劣化に悩まされることなく、緩やかな監督補正から素早く学習できることが示唆された。
論文 参考訳(メタデータ) (2022-03-29T09:30:26Z) - Bridging the Imitation Gap by Adaptive Insubordination [88.35564081175642]
教官が特権情報にアクセスして意思決定を行う場合、この情報は模倣学習中に疎外されることを示す。
本稿では,このギャップに対処するため,適応的不規則化(ADVISOR)を提案する。
ADVISORは、トレーニング中の模倣と報酬に基づく強化学習損失を動的に重み付け、模倣と探索をオンザフライで切り替えることを可能にする。
論文 参考訳(メタデータ) (2020-07-23T17:59:57Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。