論文の概要: Hand-Object Contact Consistency Reasoning for Human Grasps Generation
- arxiv url: http://arxiv.org/abs/2104.03304v1
- Date: Wed, 7 Apr 2021 17:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 14:30:54.099624
- Title: Hand-Object Contact Consistency Reasoning for Human Grasps Generation
- Title(参考訳): ヒトグラスプ生成のためのハンドオブジェクト接触一貫性推論
- Authors: Hanwen Jiang, Shaowei Liu, Jiashun Wang and Xiaolong Wang
- Abstract要約: 世界で3Dオブジェクトを与えられた人間の把握を生成することを提案する。
キーとなる観察は、手接触点と物体接触領域の一貫性をモデル化することが重要であることである。
実験では、最先端のアプローチによる人間の把握力の大幅な向上が示されている。
- 参考スコア(独自算出の注目度): 6.398433415259542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While predicting robot grasps with parallel jaw grippers have been well
studied and widely applied in robot manipulation tasks, the study on natural
human grasp generation with a multi-finger hand remains a very challenging
problem. In this paper, we propose to generate human grasps given a 3D object
in the world. Our key observation is that it is crucial to model the
consistency between the hand contact points and object contact regions. That
is, we encourage the prior hand contact points to be close to the object
surface and the object common contact regions to be touched by the hand at the
same time. Based on the hand-object contact consistency, we design novel
objectives in training the human grasp generation model and also a new
self-supervised task which allows the grasp generation network to be adjusted
even during test time. Our experiments show significant improvement in human
grasp generation over state-of-the-art approaches by a large margin. More
interestingly, by optimizing the model during test time with the
self-supervised task, it helps achieve larger gain on unseen and out-of-domain
objects. Project page: https://hwjiang1510.github.io/GraspTTA/
- Abstract(参考訳): パラレル顎グリッパーを用いたロボット把持予測は, ロボット操作タスクにおいてよく研究され, 広く応用されているが, 多指ハンドによる自然な人間把持生成に関する研究は, いまだに難しい課題である。
本稿では,世界に3次元物体が与えられた人間の手をつかむことを提案する。
我々の重要な観察は、手接触点と物体接触領域の一貫性をモデル化することが重要であることである。
すなわち、先行する手の接触点が物体面に近く、対象の共通接触領域が同時に接触されることを推奨する。
対象と対象との接触の一貫性に基づいて,人間把持生成モデルの学習における新たな目標と,テスト時においても把持生成ネットワークを調整可能な新たな自己教師ありタスクをデザインする。
実験では,最先端のアプローチによる人手獲得率の有意な向上が示された。
さらに興味深いのは、自己監督タスクでテスト時間中にモデルを最適化することで、ドメイン外のオブジェクトに対するより大きな利益を得るのに役立ちます。
プロジェクトページ: https://hwjiang1510.github.io/grasptta/
関連論文リスト
- Target Pose Guided Whole-body Grasping Motion Generation for Digital Humans [8.741075482543991]
本稿では,デジタル人間のための把握動作生成フレームワークを提案する。
我々はまず,オフザシェルフ目標把握ポーズ生成法に基づいて,全身デジタル人間のターゲットポーズを生成する。
最初のポーズとこの生成されたターゲットポーズで、トランスフォーマーベースのニューラルネットワークを使用して、把握軌道全体を生成する。
論文 参考訳(メタデータ) (2024-09-26T05:43:23Z) - ContactHandover: Contact-Guided Robot-to-Human Object Handover [23.093164853009547]
本稿では,接触誘導獲得フェーズと物体の伝達フェーズの2つのフェーズからなるヒューマンハンドオーバシステムを提案する。
把握フェーズでは、ContactHandoverは6-DoFロボットのグリップポーズと、オブジェクト上の人間の接触点の3D割当マップの両方を予測する。
配達段階では、人間の腕関節トルクと変位を最小化しつつ、人間に近い接触点を最大化してロボットエンドエフェクタポーズを算出する。
論文 参考訳(メタデータ) (2024-04-01T18:12:09Z) - Text2HOI: Text-guided 3D Motion Generation for Hand-Object Interaction [8.253265795150401]
本稿では,3Dにおける手-物間相互作用のシーケンスを生成するための最初のテキスト誘導作業について紹介する。
接触生成のために、VAEベースのネットワークはテキストとオブジェクトメッシュを入力として、手の表面とオブジェクトとの間の接触の確率を生成する。
運動生成のために、トランスフォーマーベースの拡散モデルは、この3Dコンタクトマップを、物理的に可塑性な手オブジェクトの動きを生成するための強力な先行手段として利用する。
論文 参考訳(メタデータ) (2024-03-31T04:56:30Z) - Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects [89.95728475983263]
ロボティクス、AR/VR、アクション認識、モーション生成といったタスクにおいて、自己中心的な視点からこのようなインタラクションを理解することが重要である。
我々は、AmblyHandsとARCTICデータセットに基づいたHANDS23チャレンジを、慎重に設計されたトレーニングとテストの分割に基づいて設計する。
提案手法の結果と近年のリーダーボードのベースラインに基づいて,3Dハンド(オブジェクト)再構成タスクの徹底的な解析を行う。
論文 参考訳(メタデータ) (2024-03-25T05:12:21Z) - GRIP: Generating Interaction Poses Using Spatial Cues and Latent Consistency [57.9920824261925]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Contact-aware Human Motion Forecasting [87.04827994793823]
我々は,3Dシーンと過去の人間の動作を与えられた将来の人間のポーズを予測することで,シーン認識型3Dモーション予測の課題に取り組む。
提案手法は,現在最先端のヒトの動作予測と,合成データと実データの両方においてヒトの合成手法より優れる。
論文 参考訳(メタデータ) (2022-10-08T07:53:19Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Grasping Field: Learning Implicit Representations for Human Grasps [16.841780141055505]
本稿では,深層ニューラルネットワークと統合し易い人間の把握モデリングのための表現表現を提案する。
この3Dから2DマッピングをGrasping Fieldと呼び、ディープニューラルネットワークでパラメータ化し、データから学習します。
我々の生成モデルは、3Dオブジェクトポイント・クラウドにのみ適用され、高品質な人間のグリップを合成することができる。
論文 参考訳(メタデータ) (2020-08-10T23:08:26Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。