論文の概要: Grasp-MPC: Closed-Loop Visual Grasping via Value-Guided Model Predictive Control
- arxiv url: http://arxiv.org/abs/2509.06201v1
- Date: Sun, 07 Sep 2025 20:28:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.901008
- Title: Grasp-MPC: Closed-Loop Visual Grasping via Value-Guided Model Predictive Control
- Title(参考訳): Grasp-MPC:Value-Guided Model Predictive Controlによるクローズドループビジュアルグラスピング
- Authors: Jun Yamada, Adithyavairavan Murali, Ajay Mandlekar, Clemens Eppner, Ingmar Posner, Balakumar Sundaralingam,
- Abstract要約: 乱雑な環境下での新規物体に対する閉ループ視覚に基づく把握ポリシーであるGrasp-MPCを提案する。
Grasp-MPCは200万のグリップ軌跡からなる大規模な合成データセットから視覚観測に基づいて訓練された値関数を組み込んでいる。
FetchBench上でのGrasp-MPCと,各種環境における実環境設定の評価を行った。
- 参考スコア(独自算出の注目度): 24.588260602136867
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Grasping of diverse objects in unstructured environments remains a significant challenge. Open-loop grasping methods, effective in controlled settings, struggle in cluttered environments. Grasp prediction errors and object pose changes during grasping are the main causes of failure. In contrast, closed-loop methods address these challenges in simplified settings (e.g., single object on a table) on a limited set of objects, with no path to generalization. We propose Grasp-MPC, a closed-loop 6-DoF vision-based grasping policy designed for robust and reactive grasping of novel objects in cluttered environments. Grasp-MPC incorporates a value function, trained on visual observations from a large-scale synthetic dataset of 2 million grasp trajectories that include successful and failed attempts. We deploy this learned value function in an MPC framework in combination with other cost terms that encourage collision avoidance and smooth execution. We evaluate Grasp-MPC on FetchBench and real-world settings across diverse environments. Grasp-MPC improves grasp success rates by up to 32.6% in simulation and 33.3% in real-world noisy conditions, outperforming open-loop, diffusion policy, transformer policy, and IQL approaches. Videos and more at http://grasp-mpc.github.io.
- Abstract(参考訳): 非構造環境における多様なオブジェクトのグラッピングは依然として重要な課題である。
制御された環境において有効なオープンループ把握手法は、乱雑な環境において苦労する。
把握中のグレープ予測エラーとオブジェクトのポーズ変更が、障害の主な原因である。
対照的にクローズドループ法は、限定されたオブジェクトセット上の単純化された設定(例えば、テーブル上の単一のオブジェクト)において、一般化への道のないこれらの課題に対処する。
乱雑な環境下での新規物体の頑健かつリアクティブな把握を目的とした閉ループ6-DoF視覚に基づく把握ポリシーであるGrasp-MPCを提案する。
Grasp-MPCは、200万のグリップ軌跡からなる大規模な合成データセットから、成功と失敗を含む視覚的観察に基づいて訓練された値関数を組み込んでいる。
我々は、この学習価値関数をMPCフレームワークにデプロイし、衝突回避やスムーズな実行を促進する他のコスト用語と組み合わせる。
FetchBench上でのGrasp-MPCと,各種環境における実環境設定の評価を行った。
Grasp-MPCは、シミュレーションで最大32.6%、実世界のノイズ条件で最大33.3%、オープンループ、拡散ポリシー、トランスフォーマーポリシー、IQLアプローチで改善する。
ビデオはhttp://grasp-mpc.github.io.comで公開されている。
関連論文リスト
- Corner-Grasp: Multi-Action Grasp Detection and Active Gripper Adaptation for Grasping in Cluttered Environments [0.3565151496245486]
本研究では, 散在したビンピッキング環境において, 効果的に把握する手法を提案する。
我々は吸引と指の握りを併用した多機能グリップを用いた。
また,グリップハードウェアと周辺環境との衝突を最小限に抑えるために,アクティブグリップの適応戦略を提案する。
論文 参考訳(メタデータ) (2025-04-02T16:12:28Z) - Easy-Poly: A Easy Polyhedral Framework For 3D Multi-Object Tracking [23.40561503456164]
複数のオブジェクトカテゴリを対象としたリアルタイムフィルタベースの3DMOTフレームワークであるEasy-Polyを提案する。
結果は,Poly-MOTやFast-Polyといった最先端の手法よりも優れていることを示す。
これらの知見は、多様なシナリオにおけるEasy-Polyの適応性と堅牢性を強調している。
論文 参考訳(メタデータ) (2025-02-25T04:01:25Z) - Code-as-Monitor: Constraint-aware Visual Programming for Reactive and Proactive Robotic Failure Detection [56.66677293607114]
オープンセットのリアクティブかつアクティブな障害検出のためのCode-as-Monitor(CaM)を提案する。
モニタリングの精度と効率を高めるために,制約関連エンティティを抽象化する制約要素を導入する。
実験により、CaMは28.7%高い成功率を達成し、厳しい乱れの下で実行時間を31.8%短縮することが示された。
論文 参考訳(メタデータ) (2024-12-05T18:58:27Z) - Learning to Mask and Permute Visual Tokens for Vision Transformer Pre-Training [55.12082817901671]
我々はMasked and Permuted Vision Transformer(MaPeT)という自己教師型事前学習手法を提案する。
MaPeTは、自動回帰および置換予測を使用して、パッチ内依存関係をキャプチャする。
以上の結果から,MaPeTはベースラインやコンペティターと同一のモデル設定で比較して,ImageNet上での競合性能を実証した。
論文 参考訳(メタデータ) (2023-06-12T18:12:19Z) - Environment-aware Interactive Movement Primitives for Object Reaching in
Clutter [4.5459332718995205]
本稿では,制約付き多目的最適化フレームワーク(OptI-ProMP)を提案する。
OptI-ProMPの特徴は、ターゲット地区の静的、動的、およびプッシュ可能なオブジェクトの両方に関連するコストであり、問題の初期化には確率的プリミティブに依存している。
文献からのProMPベースのプランナとOptI-ProMPを,低(3-dofs),高(7-dofs)デキスタリティロボット体でシミュレーションした。
論文 参考訳(メタデータ) (2022-10-28T15:03:23Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Collision-Aware Target-Driven Object Grasping in Constrained
Environments [10.934615956723672]
6-DoF把握システムのための新しい衝突ウェア到達可能性予測器(CARP)を提案する。
CARPは、ポーズをつかむための衝突のない確率を推定することを学び、挑戦的な環境での把握を大幅に改善します。
シミュレーションと実世界の両方で実験した結果,本手法は新規物体の75%以上の把持率を達成した。
論文 参考訳(メタデータ) (2021-04-01T21:44:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。