論文の概要: D-Grasp: Physically Plausible Dynamic Grasp Synthesis for Hand-Object
Interactions
- arxiv url: http://arxiv.org/abs/2112.03028v1
- Date: Wed, 1 Dec 2021 17:04:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-12 15:20:35.408489
- Title: D-Grasp: Physically Plausible Dynamic Grasp Synthesis for Hand-Object
Interactions
- Title(参考訳): D-Grasp:手動物体相互作用のための物理的にプラズブルな動的グラフ合成
- Authors: Sammy Christen, Muhammed Kocabas, Emre Aksan, Jemin Hwangbo, Jie Song,
Otmar Hilliges
- Abstract要約: 動的合成把握タスクを導入する。
既知の6Dポーズと把握基準を持つオブジェクトが与えられた場合、私たちのゴールはオブジェクトをターゲット6Dポーズに移動させる動作を生成することです。
階層的なアプローチは、タスクを低レベルの把握と高レベルのモーション合成に分解する。
- 参考スコア(独自算出の注目度): 47.55376158184854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the dynamic grasp synthesis task: given an object with a known
6D pose and a grasp reference, our goal is to generate motions that move the
object to a target 6D pose. This is challenging, because it requires reasoning
about the complex articulation of the human hand and the intricate physical
interaction with the object. We propose a novel method that frames this problem
in the reinforcement learning framework and leverages a physics simulation,
both to learn and to evaluate such dynamic interactions. A hierarchical
approach decomposes the task into low-level grasping and high-level motion
synthesis. It can be used to generate novel hand sequences that approach,
grasp, and move an object to a desired location, while retaining
human-likeness. We show that our approach leads to stable grasps and generates
a wide range of motions. Furthermore, even imperfect labels can be corrected by
our method to generate dynamic interaction sequences. Video is available at
https://eth-ait.github.io/d-grasp/ .
- Abstract(参考訳): 動的グリップ合成タスクを導入する:既知の6Dポーズとグリップ参照を持つオブジェクトが与えられた場合、そのオブジェクトをターゲット6Dポーズに移動させる動作を生成する。
これは、人間の手の複雑な関節と、物体との複雑な物理的相互作用について推論する必要があるため、難しい。
本稿では,強化学習フレームワークでこの問題をフレーム化し,物理シミュレーションを活用し,動的相互作用の学習と評価を行う新しい手法を提案する。
階層的アプローチはタスクを低レベル把握と高レベルモーション合成に分解する。
これは、人間の類似性を保ちながら、オブジェクトを望ましい場所に近づき、つかみ、移動させる新しいハンドシーケンスを生成するために使用できる。
我々のアプローチは、安定した把握につながり、幅広い動きを生み出すことを示します。
さらに, 動的相互作用列を生成する手法により, 不完全ラベルの修正も可能である。
ビデオはhttps://eth-ait.github.io/d-grasp/で公開されている。
関連論文リスト
- EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
本稿では,3Dシーンを同時に再構築し,RGBエゴセントリック入力のみから3Dオブジェクトの動きを追跡するEgoGaussianについて紹介する。
我々のアプローチでは、人間の活動の動的な性質を活用するクリップレベルのオンライン学習パイプラインを採用している。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - Controllable Human-Object Interaction Synthesis [77.56877961681462]
本研究では,3次元シーンにおける同期物体の動きと人間の動きを生成するための制御可能な人間-物体相互作用合成(CHOIS)を提案する。
ここでは,高レベルな計画から効果的に抽出できるスタイルや意図を言語記述が通知し,シーン内の動きをグラウンド化する。
我々のモジュールは経路計画モジュールとシームレスに統合され、3D環境における長期的相互作用の生成を可能にします。
論文 参考訳(メタデータ) (2023-12-06T21:14:20Z) - CG-HOI: Contact-Guided 3D Human-Object Interaction Generation [29.3564427724612]
テキストから動的3次元人-物体相互作用(HOI)を生成する最初の方法であるCG-HOIを提案する。
意味的に豊かな人間の動きは、しばしば孤立して起こるので、人間と物体の両方の動きを相互依存的にモデル化する。
我々は,接触に基づく人間と物体の相互作用が現実的かつ物理的に妥当なシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2023-11-27T18:59:10Z) - Physically Plausible Full-Body Hand-Object Interaction Synthesis [32.83908152822006]
そこで本研究では,全体で手-物体間相互作用を合成するための物理に基づく手法を提案する。
既存のメソッドは、しばしば相互作用プロセスの分離されたセグメントにフォーカスし、成果物をもたらす可能性のあるデータ駆動技術に依存します。
論文 参考訳(メタデータ) (2023-09-14T17:55:18Z) - Novel-view Synthesis and Pose Estimation for Hand-Object Interaction
from Sparse Views [41.50710846018882]
スパースビューから手動物体間相互作用を推定するニューラルレンダリングとポーズ推定システムを提案する。
まず,手や物体の形状や外観を,神経表現と別々に学習する。
オンライン段階では、動的手-物体相互作用を理解するためのレンダリングベースのジョイントモデルフィッティングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-08-22T05:17:41Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - SAGA: Stochastic Whole-Body Grasping with Contact [60.43627793243098]
人間の握り合成には、AR/VR、ビデオゲーム、ロボット工学など多くの応用がある。
本研究の目的は,体全体をつかむ動作を合成することである。3次元物体が与えられたら,物体に接近してつかむような,多様で自然な人体の動きを生成することを目的としている。
論文 参考訳(メタデータ) (2021-12-19T10:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。