論文の概要: MOMA-Force: Visual-Force Imitation for Real-World Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2308.03624v1
- Date: Mon, 7 Aug 2023 14:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 13:13:47.389423
- Title: MOMA-Force: Visual-Force Imitation for Real-World Mobile Manipulation
- Title(参考訳): MOMA-Force: 実世界のモバイル操作のためのビジュアルフォース模倣
- Authors: Taozheng Yang, Ya Jing, Hongtao Wu, Jiafeng Xu, Kuankuan Sima,
Guangzeng Chen, Qie Sima, Tao Kong
- Abstract要約: MOMA-Forceは、認識のための表現学習、複雑な動作生成のための模倣学習、システムの堅牢性と制御性のための全身制御をシームレスに組み合わせた視覚力模倣手法である。
本手法は, 力の模倣を伴わないベースライン法と比較して, 接触力と力のばらつきを小さくする。
- 参考スコア(独自算出の注目度): 15.333753481333067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a novel method for mobile manipulators to perform
multiple contact-rich manipulation tasks. While learning-based methods have the
potential to generate actions in an end-to-end manner, they often suffer from
insufficient action accuracy and robustness against noise. On the other hand,
classical control-based methods can enhance system robustness, but at the cost
of extensive parameter tuning. To address these challenges, we present
MOMA-Force, a visual-force imitation method that seamlessly combines
representation learning for perception, imitation learning for complex motion
generation, and admittance whole-body control for system robustness and
controllability. MOMA-Force enables a mobile manipulator to learn multiple
complex contact-rich tasks with high success rates and small contact forces. In
a real household setting, our method outperforms baseline methods in terms of
task success rates. Moreover, our method achieves smaller contact forces and
smaller force variances compared to baseline methods without force imitation.
Overall, we offer a promising approach for efficient and robust mobile
manipulation in the real world. Videos and more details can be found on
\url{https://visual-force-imitation.github.io}
- Abstract(参考訳): 本稿では,複数のコンタクトリッチな操作タスクを行う移動マニピュレータの新しい手法を提案する。
学習に基づく手法は、エンドツーエンドでアクションを生成する可能性を秘めているが、それらはしばしば、動作の正確さと雑音に対する頑健さに苦しむ。
一方で、古典的な制御ベースの手法はシステムのロバスト性を高めることができるが、広範囲なパラメータチューニングのコストがかかる。
そこで本研究では,知覚のための表現学習,複雑な運動生成のための模倣学習,システムのロバスト性と制御性のための全身制御をシームレスに結合した視覚力模倣法であるmoma-forceを提案する。
moma-forceにより、モバイルマニピュレータは、高い成功率と小さな接触力を持つ複数の複雑な接触リッチタスクを学習できる。
実家庭環境では,本手法はタスク成功率でベースラインメソッドを上回っている。
さらに, 接触力は小さく, 力のばらつきも小さく, 力の模倣を伴わないベースライン法と比較した。
全体としては,実世界で効率的かつ堅牢なモバイル操作を実現するための,有望なアプローチを提供しています。
ビデオや詳細は \url{https://visual-force-imitation.github.io} で見ることができる。
関連論文リスト
- VTAO-BiManip: Masked Visual-Tactile-Action Pre-training with Object Understanding for Bimanual Dexterous Manipulation [8.882764358932276]
両手の DoF の高さと協調性のため、ロボット工学における両面的な操作は依然として重要な課題である。
既存の片手操作技術は、人間のデモンストレーションを利用してRL法を誘導するが、複数のサブスキルを含む複雑な双対タスクに一般化できないことが多い。
VTAO-BiManipは,視覚触覚前訓練と物体理解を組み合わせた新しいフレームワークである。
論文 参考訳(メタデータ) (2025-01-07T08:14:53Z) - Twisting Lids Off with Two Hands [82.21668778600414]
シミュレーションで訓練された政策を実世界へ効果的かつ効率的に移行する方法を示す。
具体的には,ボトル状物体の蓋を両手でねじる問題について考察する。
これは、バイマガル・マルチフィンガーハンドでそのような機能を実現する最初のsim-to-real RLシステムである。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Multimodal and Force-Matched Imitation Learning with a See-Through Visuotactile Sensor [14.492202828369127]
我々は、模倣学習(IL)の枠組みの中でマルチモーダル・ビゾタクタクタブル・センサを活用して、コンタクトリッチなタスクを実行する。
本稿では,IL改善のための補完手法として,触覚力マッチングと学習モード切替という2つのアルゴリズム的貢献を紹介する。
以上の結果から, 力の一致が平均政策成功率62.5%, ビズオタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタク
論文 参考訳(メタデータ) (2023-11-02T14:02:42Z) - Mastering Robot Manipulation with Multimodal Prompts through Pretraining and Multi-task Fine-tuning [49.92517970237088]
我々はマルチモーダルなプロンプトを理解するためにロボットを訓練する問題に取り組む。
このようなタスクは、視覚と言語信号の相互接続と相補性を理解するロボットの能力にとって大きな課題となる。
マルチモーダルプロンプトを用いてロボット操作を行うためのポリシーを学習する効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-14T22:24:58Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Error-Aware Imitation Learning from Teleoperation Data for Mobile
Manipulation [54.31414116478024]
移動操作(MM)では、ロボットは環境内を移動して操作することができる。
本研究では,MMタスクに対する連続的なビジュオモダポリシの学習に模倣学習(IL)を適用する方法について検討する。
論文 参考訳(メタデータ) (2021-12-09T23:54:59Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Learning Robotic Manipulation Skills Using an Adaptive Force-Impedance
Action Space [7.116986445066885]
強化学習は、様々な困難な意思決定タスクにおいて、有望な結果をもたらしました。
高速な人間のような適応制御手法は複雑なロボットの相互作用を最適化するが、非構造化タスクに必要なマルチモーダルフィードバックを統合することができない。
本稿では,階層的学習と適応アーキテクチャにおける学習問題を要因として,両世界を最大限に活用することを提案する。
論文 参考訳(メタデータ) (2021-10-19T12:09:02Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。