論文の概要: Articulated Object Interaction in Unknown Scenes with Whole-Body Mobile
Manipulation
- arxiv url: http://arxiv.org/abs/2103.10534v1
- Date: Thu, 18 Mar 2021 21:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:27:33.343033
- Title: Articulated Object Interaction in Unknown Scenes with Whole-Body Mobile
Manipulation
- Title(参考訳): 全体移動操作による未知シーンにおける人工物体の相互作用
- Authors: Mayank Mittal, David Hoeller, Farbod Farshidian, Marco Hutter, Animesh
Garg
- Abstract要約: 未知の環境下における大型関節オブジェクトとの自律的相互作用のための2段階アーキテクチャを提案する。
第1段階は学習モデルを用いて、RGB-D入力から対象物の調音モデルを推定し、相互作用のための状態の動作条件列を予測する。
第2段階は、生成した運動計画に沿ってオブジェクトを操作する全身運動制御装置からなる。
- 参考スコア(独自算出の注目度): 16.79185733369416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A kitchen assistant needs to operate human-scale objects, such as cabinets
and ovens, in unmapped environments with dynamic obstacles. Autonomous
interactions in such real-world environments require integrating dexterous
manipulation and fluid mobility. While mobile manipulators in different
form-factors provide an extended workspace, their real-world adoption has been
limited. This limitation is in part due to two main reasons: 1) inability to
interact with unknown human-scale objects such as cabinets and ovens, and 2)
inefficient coordination between the arm and the mobile base. Executing a
high-level task for general objects requires a perceptual understanding of the
object as well as adaptive whole-body control among dynamic obstacles. In this
paper, we propose a two-stage architecture for autonomous interaction with
large articulated objects in unknown environments. The first stage uses a
learned model to estimate the articulated model of a target object from an
RGB-D input and predicts an action-conditional sequence of states for
interaction. The second stage comprises of a whole-body motion controller to
manipulate the object along the generated kinematic plan. We show that our
proposed pipeline can handle complicated static and dynamic kitchen settings.
Moreover, we demonstrate that the proposed approach achieves better performance
than commonly used control methods in mobile manipulation. For additional
material, please check: https://www.pair.toronto.edu/articulated-mm/ .
- Abstract(参考訳): キッチンアシスタントは、動的な障害のある未熟な環境で、キャビネットやオーブンのような人間規模のオブジェクトを操作する必要があります。
このような実環境における自律的な相互作用は、デクスタース操作と流動移動を統合する必要がある。
異なるフォームファクターのモバイルマニピュレータが拡張ワークスペースを提供する一方で、実際の採用は限られている。
この制限は、1)キャビネットやオーブンのような未知の人間規模のオブジェクトと相互作用できないこと、2)アームと移動体との間の非効率な協調が原因である。
一般的なオブジェクトに対するハイレベルなタスクの実行には、オブジェクトの知覚的理解と、動的障害間の適応的な全身制御が必要である。
本稿では,未知環境における大型関節オブジェクトとの自律的インタラクションのための2段階アーキテクチャを提案する。
第1段階は学習モデルを用いて、RGB-D入力から対象物の調音モデルを推定し、相互作用のための状態の動作条件列を予測する。
第2段は、生成した運動計画に沿って物体を操作する全身運動制御装置からなる。
提案するパイプラインが複雑な静的および動的キッチン設定を処理可能であることを示す。
さらに,提案手法は,モバイル操作における一般的な制御手法よりも優れた性能を実現することを示す。
詳細はhttps://www.pair.toronto.edu/articulated-mm/。
関連論文リスト
- Controllable Human-Object Interaction Synthesis [81.45852197029363]
本稿では,物体の動きと人体の動きを同時に生成するCHOIS(C Controllable Human-Object Interaction Synthesis)を提案する。
我々は、言語記述、初期オブジェクトと人間の状態、およびスパースオブジェクトのウェイポイントが与えられた条件拡散モデルを使用する。
これらの問題を克服するために、生成した物体の動きと入力対象の経路点との整合性を改善するために、追加の監督としてオブジェクト幾何損失を導入する。
論文 参考訳(メタデータ) (2023-12-06T21:14:20Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [9.528351777701811]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - N$^2$M$^2$: Learning Navigation for Arbitrary Mobile Manipulation
Motions in Unseen and Dynamic Environments [9.079709086741987]
モバイル操作のためのニューラルナビゲーション(N$2$M$2$)を導入する。
結果として生じるアプローチは、動的障害物や環境変化に即座に反応しながら、探索されていない環境で、目に見えない、長い水平タスクを実行することができる。
提案手法は,複数の運動学的に多様な移動マニピュレータ上での広範囲なシミュレーションおよび実世界の実験において有効であることを示す。
論文 参考訳(メタデータ) (2022-06-17T12:52:41Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Consolidating Kinematic Models to Promote Coordinated Mobile
Manipulations [96.03270112422514]
我々は,移動体ベース,アーム,移動体操作で操作する物体の運動学を統合する仮想キネマティックチェイン(VKC)を構築した。
移動操作タスクは、構築されたVKCの状態を変更して表現され、移動計画問題に変換することができる。
論文 参考訳(メタデータ) (2021-08-03T02:59:41Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。