論文の概要: Active-Perceptive Motion Generation for Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2310.00433v1
- Date: Sat, 30 Sep 2023 16:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 04:18:52.083062
- Title: Active-Perceptive Motion Generation for Mobile Manipulation
- Title(参考訳): 移動マニピュレーションのためのアクティブ・パーセプティブ・モーション・ジェネレーション
- Authors: Snehal Jauhri, Sophie Lueth, Georgia Chalvatzaki
- Abstract要約: 移動マニピュレータのためのアクティブな知覚パイプラインを導入し,握りなどの操作タスクに対して情報を与える動作を生成する。
本稿では,ActPerMoMaによるロボット軌道生成手法を提案する。
両腕のTIAGo++ MoMaロボットを用いて, 散らばったシーンでモバイルグリップを行う場合のシミュレーション実験において, 提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 6.952045528182883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile Manipulation (MoMa) systems incorporate the benefits of mobility and
dexterity, thanks to the enlarged space in which they can move and interact
with their environment. MoMa robots can also continuously perceive their
environment when equipped with onboard sensors, e.g., an embodied camera.
However, extracting task-relevant visual information in unstructured and
cluttered environments such as households remains a challenge. In this work, we
introduce an active perception pipeline for mobile manipulators to generate
motions that are informative toward manipulation tasks such as grasping, in
initially unknown, cluttered scenes. Our proposed approach ActPerMoMa generates
robot trajectories in a receding horizon fashion, sampling trajectories and
computing path-wise utilities that trade-off reconstructing the unknown scene
by maximizing the visual information gain and the taskoriented objective, e.g.,
grasp success by maximizing grasp reachability efficiently. We demonstrate the
efficacy of our method in simulated experiments with a dual-arm TIAGo++ MoMa
robot performing mobile grasping in cluttered scenes and when its path is
obstructed by external obstacles. We empirically analyze the contribution of
various utilities and hyperparameters, and compare against representative
baselines both with and without active perception objectives. Finally, we
demonstrate the transfer of our mobile grasping strategy to the real world,
showing a promising direction for active-perceptive MoMa.
- Abstract(参考訳): モバイル操作(moma, mobile manipulation)システムは、移動や環境とのインタラクションが可能な空間の拡大によって、モビリティとデクスタリティのメリットを取り入れている。
MoMaロボットは、内蔵カメラなどの搭載センサーを備えた場合、環境を継続的に知覚することができる。
しかし,非構造的・乱雑な家庭環境における課題関連視覚情報の抽出は依然として課題である。
本研究では,移動マニピュレータのためのアクティブな知覚パイプラインを導入し,まずは未知のシーンの把握などの操作作業に対して情報を提供する動作を生成する。
提案手法であるActPerMoMaは,視覚情報ゲインを最大化し,タスク指向の目的,例えば,到達度を効率的に最大化して成功を把握し,未知のシーンを相互に再構成するロボット軌道を生成する。
本手法は,2本腕のティアーゴ++モマロボットによるシミュレーション実験において,ごちゃごちゃした場面での移動把持と,その経路が外的障害物によって妨害された場合の有効性を実証する。
我々は,様々なユーティリティやハイパーパラメータの寄与を実証的に分析し,アクティブな知覚目標の有無に関わらず,代表的なベースラインと比較する。
最後に,実世界への移動把握戦略の移転を実証し,アクティブ・パーセプティブなMoMaの方向性を示す。
関連論文リスト
- Zero-Cost Whole-Body Teleoperation for Mobile Manipulation [8.71539730969424]
MoMa-Teleopは、ベースモーションを強化学習エージェントに委譲する新しい遠隔操作手法である。
提案手法は,様々なロボットやタスクに対して,タスク完了時間が大幅に短縮されることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:09:45Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Contrastive Learning for Enhancing Robust Scene Transfer in Vision-based
Agile Flight [21.728935597793473]
本研究では、ゼロショットシーン転送と実世界展開を可能にする視覚表現学習のための適応型マルチペアコントラスト学習戦略を提案する。
私たちは、アジャイルでビジョンベースの4倍体飛行のタスクに対して、私たちのアプローチのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2023-09-18T15:25:59Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - N$^2$M$^2$: Learning Navigation for Arbitrary Mobile Manipulation
Motions in Unseen and Dynamic Environments [9.079709086741987]
モバイル操作のためのニューラルナビゲーション(N$2$M$2$)を導入する。
結果として生じるアプローチは、動的障害物や環境変化に即座に反応しながら、探索されていない環境で、目に見えない、長い水平タスクを実行することができる。
提案手法は,複数の運動学的に多様な移動マニピュレータ上での広範囲なシミュレーションおよび実世界の実験において有効であることを示す。
論文 参考訳(メタデータ) (2022-06-17T12:52:41Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Affective Movement Generation using Laban Effort and Shape and Hidden
Markov Models [6.181642248900806]
本稿では,1)ラベル移動解析(LMA)と2)隠れマルコフモデリングという2つの運動抽象化を用いた自動感情運動生成手法を提案する。
LMAは運動の運動的特徴と表現的特徴を抽象的に表現するための体系的なツールを提供する。
特定された動作のHMM抽象化を取得し、所望の動作経路を用いて、対象の感情を伝達する新たな動きを生成する。
評価された自動認識モデルとユーザスタディを用いて、認識可能な目標感情を持つ動きを生成するための提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2020-06-10T21:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。