論文の概要: MOMA-Force: Visual-Force Imitation for Real-World Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2308.03624v1
- Date: Mon, 7 Aug 2023 14:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 13:13:47.389423
- Title: MOMA-Force: Visual-Force Imitation for Real-World Mobile Manipulation
- Title(参考訳): MOMA-Force: 実世界のモバイル操作のためのビジュアルフォース模倣
- Authors: Taozheng Yang, Ya Jing, Hongtao Wu, Jiafeng Xu, Kuankuan Sima,
Guangzeng Chen, Qie Sima, Tao Kong
- Abstract要約: MOMA-Forceは、認識のための表現学習、複雑な動作生成のための模倣学習、システムの堅牢性と制御性のための全身制御をシームレスに組み合わせた視覚力模倣手法である。
本手法は, 力の模倣を伴わないベースライン法と比較して, 接触力と力のばらつきを小さくする。
- 参考スコア(独自算出の注目度): 15.333753481333067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a novel method for mobile manipulators to perform
multiple contact-rich manipulation tasks. While learning-based methods have the
potential to generate actions in an end-to-end manner, they often suffer from
insufficient action accuracy and robustness against noise. On the other hand,
classical control-based methods can enhance system robustness, but at the cost
of extensive parameter tuning. To address these challenges, we present
MOMA-Force, a visual-force imitation method that seamlessly combines
representation learning for perception, imitation learning for complex motion
generation, and admittance whole-body control for system robustness and
controllability. MOMA-Force enables a mobile manipulator to learn multiple
complex contact-rich tasks with high success rates and small contact forces. In
a real household setting, our method outperforms baseline methods in terms of
task success rates. Moreover, our method achieves smaller contact forces and
smaller force variances compared to baseline methods without force imitation.
Overall, we offer a promising approach for efficient and robust mobile
manipulation in the real world. Videos and more details can be found on
\url{https://visual-force-imitation.github.io}
- Abstract(参考訳): 本稿では,複数のコンタクトリッチな操作タスクを行う移動マニピュレータの新しい手法を提案する。
学習に基づく手法は、エンドツーエンドでアクションを生成する可能性を秘めているが、それらはしばしば、動作の正確さと雑音に対する頑健さに苦しむ。
一方で、古典的な制御ベースの手法はシステムのロバスト性を高めることができるが、広範囲なパラメータチューニングのコストがかかる。
そこで本研究では,知覚のための表現学習,複雑な運動生成のための模倣学習,システムのロバスト性と制御性のための全身制御をシームレスに結合した視覚力模倣法であるmoma-forceを提案する。
moma-forceにより、モバイルマニピュレータは、高い成功率と小さな接触力を持つ複数の複雑な接触リッチタスクを学習できる。
実家庭環境では,本手法はタスク成功率でベースラインメソッドを上回っている。
さらに, 接触力は小さく, 力のばらつきも小さく, 力の模倣を伴わないベースライン法と比較した。
全体としては,実世界で効率的かつ堅牢なモバイル操作を実現するための,有望なアプローチを提供しています。
ビデオや詳細は \url{https://visual-force-imitation.github.io} で見ることができる。
関連論文リスト
- Zero-Cost Whole-Body Teleoperation for Mobile Manipulation [8.71539730969424]
MoMa-Teleopは、ベースモーションを強化学習エージェントに委譲する新しい遠隔操作手法である。
提案手法は,様々なロボットやタスクに対して,タスク完了時間が大幅に短縮されることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:09:45Z) - Twisting Lids Off with Two Hands [82.21668778600414]
シミュレーションで訓練された政策を実世界へ効果的かつ効率的に移行する方法を示す。
具体的には,ボトル状物体の蓋を両手でねじる問題について考察する。
これは、バイマガル・マルチフィンガーハンドでそのような機能を実現する最初のsim-to-real RLシステムである。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Towards Transferring Tactile-based Continuous Force Control Policies
from Simulation to Robot [19.789369416528604]
グリップフォースコントロールは、物体に作用する力の量を制限することによって、物体を安全に操作することを目的としている。
以前の作品では、手動制御器、モデルベースのアプローチ、あるいはsim-to-realトランスファーを示さなかった。
シミュレーションで訓練されたモデルなしの深層強化学習手法を提案し,さらに微調整を行わずにロボットに移行した。
論文 参考訳(メタデータ) (2023-11-13T11:29:06Z) - Mastering Robot Manipulation with Multimodal Prompts through Pretraining and Multi-task Fine-tuning [49.92517970237088]
我々はマルチモーダルなプロンプトを理解するためにロボットを訓練する問題に取り組む。
このようなタスクは、視覚と言語信号の相互接続と相補性を理解するロボットの能力にとって大きな課題となる。
マルチモーダルプロンプトを用いてロボット操作を行うためのポリシーを学習する効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-14T22:24:58Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Error-Aware Imitation Learning from Teleoperation Data for Mobile
Manipulation [54.31414116478024]
移動操作(MM)では、ロボットは環境内を移動して操作することができる。
本研究では,MMタスクに対する連続的なビジュオモダポリシの学習に模倣学習(IL)を適用する方法について検討する。
論文 参考訳(メタデータ) (2021-12-09T23:54:59Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Learning Robotic Manipulation Skills Using an Adaptive Force-Impedance
Action Space [7.116986445066885]
強化学習は、様々な困難な意思決定タスクにおいて、有望な結果をもたらしました。
高速な人間のような適応制御手法は複雑なロボットの相互作用を最適化するが、非構造化タスクに必要なマルチモーダルフィードバックを統合することができない。
本稿では,階層的学習と適応アーキテクチャにおける学習問題を要因として,両世界を最大限に活用することを提案する。
論文 参考訳(メタデータ) (2021-10-19T12:09:02Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。