論文の概要: Mobi-$π$: Mobilizing Your Robot Learning Policy
- arxiv url: http://arxiv.org/abs/2505.23692v1
- Date: Thu, 29 May 2025 17:27:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.036843
- Title: Mobi-$π$: Mobilizing Your Robot Learning Policy
- Title(参考訳): Mobi-$π$: ロボット学習ポリシーの安定化
- Authors: Jingyun Yang, Isabella Huang, Brandon Vu, Max Bajracharya, Rika Antonova, Jeannette Bohg,
- Abstract要約: 政策動員問題を定式化し、新しい環境下で移動ロボットのポーズを見つける。
政策の再訓練と比較すると、政策の動員はナビゲーションを操作から切り離す。
シミュレーションと実環境の両方において,本手法がベースラインを上回っていることを示す。
- 参考スコア(独自算出の注目度): 18.055262113273844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned visuomotor policies are capable of performing increasingly complex manipulation tasks. However, most of these policies are trained on data collected from limited robot positions and camera viewpoints. This leads to poor generalization to novel robot positions, which limits the use of these policies on mobile platforms, especially for precise tasks like pressing buttons or turning faucets. In this work, we formulate the policy mobilization problem: find a mobile robot base pose in a novel environment that is in distribution with respect to a manipulation policy trained on a limited set of camera viewpoints. Compared to retraining the policy itself to be more robust to unseen robot base pose initializations, policy mobilization decouples navigation from manipulation and thus does not require additional demonstrations. Crucially, this problem formulation complements existing efforts to improve manipulation policy robustness to novel viewpoints and remains compatible with them. To study policy mobilization, we introduce the Mobi-$\pi$ framework, which includes: (1) metrics that quantify the difficulty of mobilizing a given policy, (2) a suite of simulated mobile manipulation tasks based on RoboCasa to evaluate policy mobilization, (3) visualization tools for analysis, and (4) several baseline methods. We also propose a novel approach that bridges navigation and manipulation by optimizing the robot's base pose to align with an in-distribution base pose for a learned policy. Our approach utilizes 3D Gaussian Splatting for novel view synthesis, a score function to evaluate pose suitability, and sampling-based optimization to identify optimal robot poses. We show that our approach outperforms baselines in both simulation and real-world environments, demonstrating its effectiveness for policy mobilization.
- Abstract(参考訳): 学習されたビズモータポリシーは、ますます複雑な操作タスクを実行することができる。
しかし、これらのポリシーのほとんどは、限られたロボットの位置とカメラの視点から収集されたデータに基づいて訓練されている。
これは、特にボタンを押したり、蛇口を回すといった正確なタスクにおいて、これらのポリシーをモバイルプラットフォームでの使用を制限する、新しいロボットポジションへの一般化を損なう。
本研究では,移動ロボット基地が,限られたカメラ視点で訓練された操作ポリシーに対して,分散した新しい環境下でポーズを取るという,ポリシーの動員問題を定式化する。
未確認のロボットベースが初期化されるのに対して、ポリシー自体をより堅牢にトレーニングするのと比べて、ポリシーのモビライゼーションはナビゲーションを操作から切り離すため、追加のデモは不要である。
重要な点として、この問題の定式化は、新しい視点に対する操作ポリシーの堅牢性を改善する既存の取り組みを補完し、それらと互換性を維持している。
政策のモビライゼーションを研究するために,(1)所定の政策のモビライゼーションの難しさを定量化する指標,(2)ロボカサをベースとしたモバイル操作タスクのシミュレーションスイート,(3)分析のための可視化ツール,(4)ベースライン手法を含むMobi-$\pi$フレームワークを導入する。
また,ロボットのベースポーズを最適化してナビゲーションと操作をブリッジする新たなアプローチを提案する。
提案手法は,3次元ガウススプラッティングを新しいビュー合成,ポーズ適合性評価のためのスコア関数,最適なロボットポーズを特定するためのサンプリングベース最適化に活用する。
提案手法は, シミュレーション環境と実環境環境の両方において, ベースラインよりも優れており, 政策の動員に有効であることを示す。
関連論文リスト
- FLEX: A Framework for Learning Robot-Agnostic Force-based Skills Involving Sustained Contact Object Manipulation [9.292150395779332]
本稿では,力空間におけるオブジェクト中心の操作ポリシーを学習するための新しいフレームワークを提案する。
提案手法は, 動作空間を単純化し, 不要な探索を低減し, シミュレーションオーバーヘッドを低減させる。
評価の結果,本手法はベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-03-17T17:49:47Z) - GRAPPA: Generalizing and Adapting Robot Policies via Online Agentic Guidance [15.774237279917594]
本稿では,ロボットによる自己指導と自己改善のためのエージェントフレームワークを提案する。
本フレームワークは,環境中の関連オブジェクトに対して,ベースロボットポリシーを反復的に適用する。
弊社のアプローチは、操作ポリシーを効果的にガイドし、成功率を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2024-10-09T02:00:37Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Polybot: Training One Policy Across Robots While Embracing Variability [70.74462430582163]
複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
論文 参考訳(メタデータ) (2023-07-07T17:21:16Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。