論文の概要: Hand-Object Contact Consistency Reasoning for Human Grasps Generation
- arxiv url: http://arxiv.org/abs/2104.03304v1
- Date: Wed, 7 Apr 2021 17:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 14:30:54.099624
- Title: Hand-Object Contact Consistency Reasoning for Human Grasps Generation
- Title(参考訳): ヒトグラスプ生成のためのハンドオブジェクト接触一貫性推論
- Authors: Hanwen Jiang, Shaowei Liu, Jiashun Wang and Xiaolong Wang
- Abstract要約: 世界で3Dオブジェクトを与えられた人間の把握を生成することを提案する。
キーとなる観察は、手接触点と物体接触領域の一貫性をモデル化することが重要であることである。
実験では、最先端のアプローチによる人間の把握力の大幅な向上が示されている。
- 参考スコア(独自算出の注目度): 6.398433415259542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While predicting robot grasps with parallel jaw grippers have been well
studied and widely applied in robot manipulation tasks, the study on natural
human grasp generation with a multi-finger hand remains a very challenging
problem. In this paper, we propose to generate human grasps given a 3D object
in the world. Our key observation is that it is crucial to model the
consistency between the hand contact points and object contact regions. That
is, we encourage the prior hand contact points to be close to the object
surface and the object common contact regions to be touched by the hand at the
same time. Based on the hand-object contact consistency, we design novel
objectives in training the human grasp generation model and also a new
self-supervised task which allows the grasp generation network to be adjusted
even during test time. Our experiments show significant improvement in human
grasp generation over state-of-the-art approaches by a large margin. More
interestingly, by optimizing the model during test time with the
self-supervised task, it helps achieve larger gain on unseen and out-of-domain
objects. Project page: https://hwjiang1510.github.io/GraspTTA/
- Abstract(参考訳): パラレル顎グリッパーを用いたロボット把持予測は, ロボット操作タスクにおいてよく研究され, 広く応用されているが, 多指ハンドによる自然な人間把持生成に関する研究は, いまだに難しい課題である。
本稿では,世界に3次元物体が与えられた人間の手をつかむことを提案する。
我々の重要な観察は、手接触点と物体接触領域の一貫性をモデル化することが重要であることである。
すなわち、先行する手の接触点が物体面に近く、対象の共通接触領域が同時に接触されることを推奨する。
対象と対象との接触の一貫性に基づいて,人間把持生成モデルの学習における新たな目標と,テスト時においても把持生成ネットワークを調整可能な新たな自己教師ありタスクをデザインする。
実験では,最先端のアプローチによる人手獲得率の有意な向上が示された。
さらに興味深いのは、自己監督タスクでテスト時間中にモデルを最適化することで、ドメイン外のオブジェクトに対するより大きな利益を得るのに役立ちます。
プロジェクトページ: https://hwjiang1510.github.io/grasptta/
関連論文リスト
- GRIP: Generating Interaction Poses Using Latent Consistency and Spatial
Cues [60.90013719118856]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Contact-aware Human Motion Forecasting [87.04827994793823]
我々は,3Dシーンと過去の人間の動作を与えられた将来の人間のポーズを予測することで,シーン認識型3Dモーション予測の課題に取り組む。
提案手法は,現在最先端のヒトの動作予測と,合成データと実データの両方においてヒトの合成手法より優れる。
論文 参考訳(メタデータ) (2022-10-08T07:53:19Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Distillation of Human-Object Interaction Contexts for Action Recognition [0.0]
局所的・グローバル的文脈の相互作用を利用して人間とオブジェクトの関係を学習する。
空間と時間を通して人間と物体の相互作用を学習するGLIDN(Global-Local Interaction Distillation Network)を提案する。
GLIDNは人やオブジェクトをグラフノードにエンコードし、グラフアテンションネットワークを介して局所的およびグローバルな関係を学習する。
論文 参考訳(メタデータ) (2021-12-17T11:39:44Z) - Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos [49.52070710518688]
一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
論文 参考訳(メタデータ) (2021-11-02T13:40:18Z) - Grasping Field: Learning Implicit Representations for Human Grasps [16.841780141055505]
本稿では,深層ニューラルネットワークと統合し易い人間の把握モデリングのための表現表現を提案する。
この3Dから2DマッピングをGrasping Fieldと呼び、ディープニューラルネットワークでパラメータ化し、データから学習します。
我々の生成モデルは、3Dオブジェクトポイント・クラウドにのみ適用され、高品質な人間のグリップを合成することができる。
論文 参考訳(メタデータ) (2020-08-10T23:08:26Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。