論文の概要: N$^2$M$^2$: Learning Navigation for Arbitrary Mobile Manipulation
Motions in Unseen and Dynamic Environments
- arxiv url: http://arxiv.org/abs/2206.08737v2
- Date: Thu, 29 Jun 2023 07:54:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 19:48:39.384728
- Title: N$^2$M$^2$: Learning Navigation for Arbitrary Mobile Manipulation
Motions in Unseen and Dynamic Environments
- Title(参考訳): n$^2$m$^2$:非知覚および動的環境における任意の移動操作動作の学習ナビゲーション
- Authors: Daniel Honerkamp, Tim Welschehold, Abhinav Valada
- Abstract要約: モバイル操作のためのニューラルナビゲーション(N$2$M$2$)を導入する。
結果として生じるアプローチは、動的障害物や環境変化に即座に反応しながら、探索されていない環境で、目に見えない、長い水平タスクを実行することができる。
提案手法は,複数の運動学的に多様な移動マニピュレータ上での広範囲なシミュレーションおよび実世界の実験において有効であることを示す。
- 参考スコア(独自算出の注目度): 9.079709086741987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite its importance in both industrial and service robotics, mobile
manipulation remains a significant challenge as it requires a seamless
integration of end-effector trajectory generation with navigation skills as
well as reasoning over long-horizons. Existing methods struggle to control the
large configuration space, and to navigate dynamic and unknown environments. In
previous work, we proposed to decompose mobile manipulation tasks into a
simplified motion generator for the end-effector in task space and a trained
reinforcement learning agent for the mobile base to account for kinematic
feasibility of the motion. In this work, we introduce Neural Navigation for
Mobile Manipulation (N$^2$M$^2$) which extends this decomposition to complex
obstacle environments and enables it to tackle a broad range of tasks in real
world settings. The resulting approach can perform unseen, long-horizon tasks
in unexplored environments while instantly reacting to dynamic obstacles and
environmental changes. At the same time, it provides a simple way to define new
mobile manipulation tasks. We demonstrate the capabilities of our proposed
approach in extensive simulation and real-world experiments on multiple
kinematically diverse mobile manipulators. Code and videos are publicly
available at http://mobile-rl.cs.uni-freiburg.de.
- Abstract(参考訳): 産業とサービスロボティクスの両方で重要であるにもかかわらず、モバイル操作は、エンドエフェクタの軌道生成とナビゲーションスキルのシームレスな統合、そして長いホリゾンに対する推論を必要とするため、依然として大きな課題である。
既存の方法は、大きな構成空間を制御したり、動的で未知の環境をナビゲートするのに苦労する。
本研究では,移動体操作タスクをタスク空間におけるエンドエフェクタのための簡易な動作生成器と,運動の運動性を考慮した移動体ベースのための強化学習エージェントに分解する提案を行った。
本研究では,モバイル操作のためのニューラルナビゲーション(N$^2$M$^2$)を導入し,この分解を複雑な障害物環境に拡張し,実世界の環境において幅広いタスクに対処できるようにする。
結果として得られたアプローチは、動的障害や環境変化に即座に反応しながら、未探索の環境において、目に見えない長時間ホリゾンタスクを実行することができる。
同時に、新しいモバイル操作タスクを定義するための簡単な方法を提供する。
提案手法は,マルチキネマティックに多様な移動マニピュレータ上での大規模シミュレーションと実世界実験において有効であることを示す。
コードとビデオはhttp://mobile-rl.cs.uni-freiburg.deで公開されている。
関連論文リスト
- M3Bench: Benchmarking Whole-body Motion Generation for Mobile Manipulation in 3D Scenes [66.44171200767839]
モバイル操作タスクのための全身動作生成のベンチマークであるM3Benchを提案する。
M3Benchは、その構成、環境制約、タスクの目的を理解するために、実施エージェントを必要とする。
M3Benchは119の多様なシーンにまたがる30kのオブジェクト再構成タスクを備えており、新たに開発したM3BenchMakerによって生成された専門家によるデモを提供する。
論文 参考訳(メタデータ) (2024-10-09T08:38:21Z) - Zero-Cost Whole-Body Teleoperation for Mobile Manipulation [8.71539730969424]
MoMa-Teleopは、ベースモーションを強化学習エージェントに委譲する新しい遠隔操作手法である。
提案手法は,様々なロボットやタスクに対して,タスク完了時間が大幅に短縮されることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:09:45Z) - Flow as the Cross-Domain Manipulation Interface [73.15952395641136]
Im2Flow2Actは、現実世界のロボットのトレーニングデータを必要とせずに、ロボットが現実世界の操作スキルを習得することを可能にする。
Im2Flow2Actはフロー生成ネットワークとフロー条件ポリシーの2つのコンポーネントから構成される。
我々はIm2Flow2Actの様々な実世界のタスクにおいて、剛性、調音、変形可能なオブジェクトの操作を含む能力を実証する。
論文 参考訳(メタデータ) (2024-07-21T16:15:02Z) - Harmonic Mobile Manipulation [35.82197562695662]
HarmonicMMはナビゲーションと操作の両方を最適化するエンドツーエンドの学習手法である。
私たちのコントリビューションには、モバイル操作のための新しいベンチマークと、RGBの視覚的観察のみによるデプロイメントの成功が含まれています。
論文 参考訳(メタデータ) (2023-12-11T18:54:42Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Active-Perceptive Motion Generation for Mobile Manipulation [6.952045528182883]
移動マニピュレータのためのアクティブな知覚パイプラインを導入し,操作タスクに対して情報を与える動作を生成する。
提案手法であるActPerMoMaは,経路をサンプリングし,経路ワイズユーティリティーを演算することで,後退する水平方向にロボット経路を生成する。
両腕のTIAGo++ MoMaロボットを用いて,障害物のある散らばったシーンで移動体把握を行う実験において,本手法の有効性を示す。
論文 参考訳(メタデータ) (2023-09-30T16:56:52Z) - Simultaneous Navigation and Construction Benchmarking Environments [73.0706832393065]
モバイル構築のためのインテリジェントなロボット、環境をナビゲートし、幾何学的設計に従ってその構造を変更するプロセスが必要です。
このタスクでは、ロボットのビジョンと学習の大きな課題は、GPSなしでデザインを正確に達成する方法です。
我々は,手工芸政策の性能を,基礎的なローカライゼーションと計画,最先端の深層強化学習手法を用いて評価した。
論文 参考訳(メタデータ) (2021-03-31T00:05:54Z) - Articulated Object Interaction in Unknown Scenes with Whole-Body Mobile
Manipulation [16.79185733369416]
未知の環境下における大型関節オブジェクトとの自律的相互作用のための2段階アーキテクチャを提案する。
第1段階は学習モデルを用いて、RGB-D入力から対象物の調音モデルを推定し、相互作用のための状態の動作条件列を予測する。
第2段階は、生成した運動計画に沿ってオブジェクトを操作する全身運動制御装置からなる。
論文 参考訳(メタデータ) (2021-03-18T21:32:18Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。