論文の概要: ArtiGrasp: Physically Plausible Synthesis of Bi-Manual Dexterous
Grasping and Articulation
- arxiv url: http://arxiv.org/abs/2309.03891v2
- Date: Sun, 3 Mar 2024 18:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 02:36:22.785560
- Title: ArtiGrasp: Physically Plausible Synthesis of Bi-Manual Dexterous
Grasping and Articulation
- Title(参考訳): ArtiGrasp: バイマニュアルデキスタラスグラフプとアーティキュレーションの物理的に可塑性な合成
- Authors: Hui Zhang, Sammy Christen, Zicong Fan, Luocheng Zheng, Jemin Hwangbo,
Jie Song, Otmar Hilliges
- Abstract要約: ArtiGraspは、握りと調音を含む双方向の手-物体の相互作用を合成する方法である。
我々のフレームワークは、単一の手ポーズ参照によってガイドされた単一のポリシー内での把握と明瞭化を統一する。
提案手法は,市販画像ベース回帰器からノイズの多い手動ポーズ推定を行うことができることを示す。
- 参考スコア(独自算出の注目度): 29.999224233718927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ArtiGrasp, a novel method to synthesize bi-manual hand-object
interactions that include grasping and articulation. This task is challenging
due to the diversity of the global wrist motions and the precise finger control
that are necessary to articulate objects. ArtiGrasp leverages reinforcement
learning and physics simulations to train a policy that controls the global and
local hand pose. Our framework unifies grasping and articulation within a
single policy guided by a single hand pose reference. Moreover, to facilitate
the training of the precise finger control required for articulation, we
present a learning curriculum with increasing difficulty. It starts with
single-hand manipulation of stationary objects and continues with multi-agent
training including both hands and non-stationary objects. To evaluate our
method, we introduce Dynamic Object Grasping and Articulation, a task that
involves bringing an object into a target articulated pose. This task requires
grasping, relocation, and articulation. We show our method's efficacy towards
this task. We further demonstrate that our method can generate motions with
noisy hand-object pose estimates from an off-the-shelf image-based regressor.
- Abstract(参考訳): そこで本研究では,把持と調音を含む2次元ハンドオブジェクトインタラクションを合成する新しい手法であるartigraspを提案する。
この課題は、大域的な手首の動きの多様性と、物体の明瞭化に必要な精密な指制御のためである。
ArtiGraspは、強化学習と物理シミュレーションを利用して、グローバルおよびローカルハンドポーズを制御するポリシーをトレーニングする。
提案手法は,単一姿勢参照によって導かれる単一方針における把握と明瞭化を統一する。
さらに,調音に必要な正確な指制御の訓練を容易にするために,難易度を増す学習カリキュラムを提案する。
静止オブジェクトの片手操作から始まり、手と非静止オブジェクトの両方を含むマルチエージェントトレーニングへと続く。
提案手法を評価するために,対象物を対象のポーズに投入する作業である動的オブジェクトグラスピングとArticulationを導入する。
このタスクには、把持、転位、調音が必要です。
我々はこの課題に対する我々の方法の有効性を示す。
さらに,本手法は,市販画像ベース回帰器からノイズの多い手動ポーズ推定を行うことができることを示す。
関連論文リスト
- DiffH2O: Diffusion-Based Synthesis of Hand-Object Interactions from Textual Descriptions [15.417836855005087]
DiffH2Oは,現実的,一方的あるいは一方的な物体相互作用を合成する新しい手法である。
タスクを把握段階とテキストベースのインタラクション段階に分解する。
把握段階では、モデルが手の動きのみを生成するのに対し、手と物の両方のポーズが合成される。
論文 参考訳(メタデータ) (2024-03-26T16:06:42Z) - Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - Physically Plausible Full-Body Hand-Object Interaction Synthesis [32.83908152822006]
そこで本研究では,全体で手-物体間相互作用を合成するための物理に基づく手法を提案する。
既存のメソッドは、しばしば相互作用プロセスの分離されたセグメントにフォーカスし、成果物をもたらす可能性のあるデータ駆動技術に依存します。
論文 参考訳(メタデータ) (2023-09-14T17:55:18Z) - GRIP: Generating Interaction Poses Using Spatial Cues and Latent Consistency [57.9920824261925]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - Learning to Transfer In-Hand Manipulations Using a Greedy Shape
Curriculum [79.6027464700869]
本研究では, 動的シミュレーションにおける簡易物体の自然な, 頑健な手動操作が, 高品質なモーションキャプチャの例から学習可能であることを示す。
本稿では,ティーポット,バニー,ボトル,トレイン,ゾウなど,さまざまな対象に適用可能な,単純なグリージーなカリキュラム検索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-14T17:08:19Z) - D-Grasp: Physically Plausible Dynamic Grasp Synthesis for Hand-Object
Interactions [47.55376158184854]
動的合成把握タスクを導入する。
既知の6Dポーズと把握基準を持つオブジェクトが与えられた場合、私たちのゴールはオブジェクトをターゲット6Dポーズに移動させる動作を生成することです。
階層的なアプローチは、タスクを低レベルの把握と高レベルのモーション合成に分解する。
論文 参考訳(メタデータ) (2021-12-01T17:04:39Z) - Towards unconstrained joint hand-object reconstruction from RGB videos [81.97694449736414]
ハンドオブジェクト操作の再構築は、ロボット工学と人間のデモから学ぶ大きな可能性を秘めている。
まず,手動物体の相互作用をシームレスに処理できる学習不要な手動物体再構成手法を提案する。
論文 参考訳(メタデータ) (2021-08-16T12:26:34Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。