論文の概要: Articulated Object Interaction in Unknown Scenes with Whole-Body Mobile
Manipulation
- arxiv url: http://arxiv.org/abs/2103.10534v1
- Date: Thu, 18 Mar 2021 21:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:27:33.343033
- Title: Articulated Object Interaction in Unknown Scenes with Whole-Body Mobile
Manipulation
- Title(参考訳): 全体移動操作による未知シーンにおける人工物体の相互作用
- Authors: Mayank Mittal, David Hoeller, Farbod Farshidian, Marco Hutter, Animesh
Garg
- Abstract要約: 未知の環境下における大型関節オブジェクトとの自律的相互作用のための2段階アーキテクチャを提案する。
第1段階は学習モデルを用いて、RGB-D入力から対象物の調音モデルを推定し、相互作用のための状態の動作条件列を予測する。
第2段階は、生成した運動計画に沿ってオブジェクトを操作する全身運動制御装置からなる。
- 参考スコア(独自算出の注目度): 16.79185733369416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A kitchen assistant needs to operate human-scale objects, such as cabinets
and ovens, in unmapped environments with dynamic obstacles. Autonomous
interactions in such real-world environments require integrating dexterous
manipulation and fluid mobility. While mobile manipulators in different
form-factors provide an extended workspace, their real-world adoption has been
limited. This limitation is in part due to two main reasons: 1) inability to
interact with unknown human-scale objects such as cabinets and ovens, and 2)
inefficient coordination between the arm and the mobile base. Executing a
high-level task for general objects requires a perceptual understanding of the
object as well as adaptive whole-body control among dynamic obstacles. In this
paper, we propose a two-stage architecture for autonomous interaction with
large articulated objects in unknown environments. The first stage uses a
learned model to estimate the articulated model of a target object from an
RGB-D input and predicts an action-conditional sequence of states for
interaction. The second stage comprises of a whole-body motion controller to
manipulate the object along the generated kinematic plan. We show that our
proposed pipeline can handle complicated static and dynamic kitchen settings.
Moreover, we demonstrate that the proposed approach achieves better performance
than commonly used control methods in mobile manipulation. For additional
material, please check: https://www.pair.toronto.edu/articulated-mm/ .
- Abstract(参考訳): キッチンアシスタントは、動的な障害のある未熟な環境で、キャビネットやオーブンのような人間規模のオブジェクトを操作する必要があります。
このような実環境における自律的な相互作用は、デクスタース操作と流動移動を統合する必要がある。
異なるフォームファクターのモバイルマニピュレータが拡張ワークスペースを提供する一方で、実際の採用は限られている。
この制限は、1)キャビネットやオーブンのような未知の人間規模のオブジェクトと相互作用できないこと、2)アームと移動体との間の非効率な協調が原因である。
一般的なオブジェクトに対するハイレベルなタスクの実行には、オブジェクトの知覚的理解と、動的障害間の適応的な全身制御が必要である。
本稿では,未知環境における大型関節オブジェクトとの自律的インタラクションのための2段階アーキテクチャを提案する。
第1段階は学習モデルを用いて、RGB-D入力から対象物の調音モデルを推定し、相互作用のための状態の動作条件列を予測する。
第2段は、生成した運動計画に沿って物体を操作する全身運動制御装置からなる。
提案するパイプラインが複雑な静的および動的キッチン設定を処理可能であることを示す。
さらに,提案手法は,モバイル操作における一般的な制御手法よりも優れた性能を実現することを示す。
詳細はhttps://www.pair.toronto.edu/articulated-mm/。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - Controllable Human-Object Interaction Synthesis [77.56877961681462]
本研究では,3次元シーンにおける同期物体の動きと人間の動きを生成するための制御可能な人間-物体相互作用合成(CHOIS)を提案する。
ここでは,高レベルな計画から効果的に抽出できるスタイルや意図を言語記述が通知し,シーン内の動きをグラウンド化する。
我々のモジュールは経路計画モジュールとシームレスに統合され、3D環境における長期的相互作用の生成を可能にします。
論文 参考訳(メタデータ) (2023-12-06T21:14:20Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - N$^2$M$^2$: Learning Navigation for Arbitrary Mobile Manipulation
Motions in Unseen and Dynamic Environments [9.079709086741987]
モバイル操作のためのニューラルナビゲーション(N$2$M$2$)を導入する。
結果として生じるアプローチは、動的障害物や環境変化に即座に反応しながら、探索されていない環境で、目に見えない、長い水平タスクを実行することができる。
提案手法は,複数の運動学的に多様な移動マニピュレータ上での広範囲なシミュレーションおよび実世界の実験において有効であることを示す。
論文 参考訳(メタデータ) (2022-06-17T12:52:41Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。