論文の概要: MoDeSuite: Robot Learning Task Suite for Benchmarking Mobile Manipulation with Deformable Objects
- arxiv url: http://arxiv.org/abs/2507.21796v1
- Date: Tue, 29 Jul 2025 13:33:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.359063
- Title: MoDeSuite: Robot Learning Task Suite for Benchmarking Mobile Manipulation with Deformable Objects
- Title(参考訳): MoDeSuite: 変形可能なオブジェクトによるモバイル操作のベンチマークを行うロボット学習タスクスイート
- Authors: Yuying Zhang, Kevin Sebastian Luck, Francesco Verdoja, Ville Kyrki, Joni Pajarinen,
- Abstract要約: 変形可能なオブジェクトを含むモバイル操作タスクに対処する最初のタスクスイートであるMoDeSuiteを紹介した。
これらのタスクの成功には、ロボットのベースとマニピュレータの効果的な協調、および物体の変形性を利用する能力が必要である。
我々は2つの最先端の強化学習アルゴリズムと2つの模倣学習アルゴリズムを訓練し、遭遇した困難を強調し、その性能をシミュレーションで示す。
- 参考スコア(独自算出の注目度): 17.54380759165508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile manipulation is a critical capability for robots operating in diverse, real-world environments. However, manipulating deformable objects and materials remains a major challenge for existing robot learning algorithms. While various benchmarks have been proposed to evaluate manipulation strategies with rigid objects, there is still a notable lack of standardized benchmarks that address mobile manipulation tasks involving deformable objects. To address this gap, we introduce MoDeSuite, the first Mobile Manipulation Deformable Object task suite, designed specifically for robot learning. MoDeSuite consists of eight distinct mobile manipulation tasks covering both elastic objects and deformable objects, each presenting a unique challenge inspired by real-world robot applications. Success in these tasks requires effective collaboration between the robot's base and manipulator, as well as the ability to exploit the deformability of the objects. To evaluate and demonstrate the use of the proposed benchmark, we train two state-of-the-art reinforcement learning algorithms and two imitation learning algorithms, highlighting the difficulties encountered and showing their performance in simulation. Furthermore, we demonstrate the practical relevance of the suite by deploying the trained policies directly into the real world with the Spot robot, showcasing the potential for sim-to-real transfer. We expect that MoDeSuite will open a novel research domain in mobile manipulation involving deformable objects. Find more details, code, and videos at https://sites.google.com/view/modesuite/home.
- Abstract(参考訳): モバイル操作は、多様な現実世界環境で動作するロボットにとって重要な機能である。
しかし、変形可能な物体や材料を操作することは、既存のロボット学習アルゴリズムにとって大きな課題である。
剛体オブジェクトによる操作戦略を評価するための様々なベンチマークが提案されているが、変形可能なオブジェクトを含むモバイル操作タスクに対処する標準化されたベンチマークがまだ存在しないことは注目すべきである。
このギャップに対処するために,ロボット学習に特化したモバイル操作変形可能なオブジェクトタスクスイートであるMoDeSuiteを紹介した。
MoDeSuiteは、弾性オブジェクトと変形可能なオブジェクトの両方をカバーする8つの異なるモバイル操作タスクで構成されている。
これらのタスクの成功には、ロボットのベースとマニピュレータの効果的な協調、および物体の変形性を利用する能力が必要である。
提案手法の有効性を評価・実証するために,2つの最先端強化学習アルゴリズムと2つの模倣学習アルゴリズムを訓練し,その問題点を強調し,その性能をシミュレーションで示す。
さらに,Spotロボットを用いて,トレーニング済みポリシーを直接現実世界に展開し,シミュレート・トゥ・リアル・トランスファーの可能性を示すことで,スイートの実用的妥当性を示す。
変形可能なオブジェクトを含むモバイル操作において,MoDeSuiteが新たな研究領域を開くことを期待している。
詳しくはhttps://sites.google.com/view/modesuite/home.comを参照のこと。
関連論文リスト
- FLEX: A Framework for Learning Robot-Agnostic Force-based Skills Involving Sustained Contact Object Manipulation [9.292150395779332]
本稿では,力空間におけるオブジェクト中心の操作ポリシーを学習するための新しいフレームワークを提案する。
提案手法は, 動作空間を単純化し, 不要な探索を低減し, シミュレーションオーバーヘッドを低減させる。
評価の結果,本手法はベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-03-17T17:49:47Z) - Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Flow as the Cross-Domain Manipulation Interface [73.15952395641136]
Im2Flow2Actは、現実世界のロボットのトレーニングデータを必要とせずに、ロボットが現実世界の操作スキルを習得することを可能にする。
Im2Flow2Actはフロー生成ネットワークとフロー条件ポリシーの2つのコンポーネントから構成される。
我々はIm2Flow2Actの様々な実世界のタスクにおいて、剛性、調音、変形可能なオブジェクトの操作を含む能力を実証する。
論文 参考訳(メタデータ) (2024-07-21T16:15:02Z) - Harmonic Mobile Manipulation [35.82197562695662]
HarmonicMMはナビゲーションと操作の両方を最適化するエンドツーエンドの学習手法である。
私たちのコントリビューションには、モバイル操作のための新しいベンチマークと、RGBの視覚的観察のみによるデプロイメントの成功が含まれています。
論文 参考訳(メタデータ) (2023-12-11T18:54:42Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。