論文の概要: ContactPose: A Dataset of Grasps with Object Contact and Hand Pose
- arxiv url: http://arxiv.org/abs/2007.09545v1
- Date: Sun, 19 Jul 2020 01:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 00:16:11.989378
- Title: ContactPose: A Dataset of Grasps with Object Contact and Hand Pose
- Title(参考訳): contactpose: 物体接触と手のポーズによる把持のデータセット
- Authors: Samarth Brahmbhatt, Chengcheng Tang, Christopher D. Twigg, Charles C.
Kemp, James Hays
- Abstract要約: 本研究では、手ポーズ、オブジェクトポーズ、RGB-D画像と組み合わせた、手オブジェクト接触の最初のデータセットであるContactPoseを紹介する。
ContactPoseは25の家庭用物体の2306のユニークな把握能力を持ち、50人の被験者による2つの機能的意図と2.9 M RGB-Dの把握画像を持っている。
- 参考スコア(独自算出の注目度): 27.24450178180785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping is natural for humans. However, it involves complex hand
configurations and soft tissue deformation that can result in complicated
regions of contact between the hand and the object. Understanding and modeling
this contact can potentially improve hand models, AR/VR experiences, and
robotic grasping. Yet, we currently lack datasets of hand-object contact paired
with other data modalities, which is crucial for developing and evaluating
contact modeling techniques. We introduce ContactPose, the first dataset of
hand-object contact paired with hand pose, object pose, and RGB-D images.
ContactPose has 2306 unique grasps of 25 household objects grasped with 2
functional intents by 50 participants, and more than 2.9 M RGB-D grasp images.
Analysis of ContactPose data reveals interesting relationships between hand
pose and contact. We use this data to rigorously evaluate various data
representations, heuristics from the literature, and learning methods for
contact modeling. Data, code, and trained models are available at
https://contactpose.cc.gatech.edu.
- Abstract(参考訳): 放牧は人間にとって自然なことだ。
しかし、複雑な手の構造や軟部組織の変形が伴い、手と物体の間に複雑な接触領域が生じる。
この接触の理解とモデリングは、ハンドモデル、AR/VR体験、ロボットグルーピングを改善する可能性がある。
しかし、現在、接触モデリング技術の開発と評価に不可欠である他のデータモダリティと組み合わせた手動接触のデータセットが欠落している。
本稿では,ハンドポーズ,オブジェクトポーズ,rgb-d画像とペアリングしたハンドオブジェクトコンタクトの最初のデータセットである contactpose を紹介する。
ContactPoseは25の家庭用物体の2306のユニークな把握能力を持ち、50人の被験者による2つの機能的意図と2.9 M RGB-Dの把握画像を持っている。
ContactPoseデータの解析により、ポーズと接触の興味深い関係が明らかになった。
このデータを用いて,様々なデータ表現,文献からのヒューリスティックス,コンタクトモデリングのための学習手法を厳密に評価した。
データ、コード、トレーニングされたモデルはhttps://contactpose.cc.gatech.edu.comで入手できる。
関連論文リスト
- Dynamic Reconstruction of Hand-Object Interaction with Distributed Force-aware Contact Representation [52.36691633451968]
ViTaM-Dは動的手動物体相互作用再構成のための視覚触覚フレームワークである。
DF-Fieldは分散力認識型接触表現モデルである。
剛性および変形性のある物体再構成におけるViTaM-Dの優れた性能について検討した。
論文 参考訳(メタデータ) (2024-11-14T16:29:45Z) - NL2Contact: Natural Language Guided 3D Hand-Object Contact Modeling with Diffusion Model [45.00669505173757]
NL2Contactは、段階拡散モデルを利用して制御可能な接触を生成するモデルである。
手と接触の言語記述を与えられたNL2Contactは、現実的で忠実な3Dハンドオブジェクト接触を生成する。
ポーズの最適化と新しい人間のグリップ生成のためのモデルの適用例を示す。
論文 参考訳(メタデータ) (2024-07-17T16:46:40Z) - ContactGen: Generative Contact Modeling for Grasp Generation [37.56729700157981]
本稿では,手動物体間相互作用のためのオブジェクト中心の接触表現型コンタクトGenを提案する。
本研究では,ContactGen予測のための条件生成モデルを提案する。
論文 参考訳(メタデータ) (2023-10-05T17:59:45Z) - DECO: Dense Estimation of 3D Human-Scene Contact In The Wild [54.44345845842109]
SMPL体上の接触を推定するために、身体部分駆動とシーンコンテキスト駆動の両方の注意を用いた新しい3D接触検出器を訓練する。
すべてのベンチマークで既存のSOTAメソッドよりも大幅に優れています。
また、DECが自然画像における多様で挑戦的な現実世界の人間のインタラクションによく当てはまることを定性的に示す。
論文 参考訳(メタデータ) (2023-09-26T21:21:07Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - ContactArt: Learning 3D Interaction Priors for Category-level Articulated Object and Hand Poses Estimation [46.815231896011284]
そこで我々は,手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動・手動の
まず、視覚的遠隔操作を用いてデータセットを収集し、人間のオペレーターが物理的シミュレータ内で直接プレイすることで、調音されたオブジェクトを操作できる。
私たちのシステムでは、人手の動きを記録するためにiPhoneしか必要とせず、簡単にスケールアップでき、データやアノテーションの収集コストを大幅に削減できます。
論文 参考訳(メタデータ) (2023-05-02T17:24:08Z) - HMDO: Markerless Multi-view Hand Manipulation Capture with Deformable
Objects [8.711239906965893]
HMDOは、手と変形可能な物体の対話的な動きを記録する最初のマーカーレス変形可能な相互作用データセットである。
提案手法は,手と変形可能な物体の対話的動きを高品質に再現することができる。
論文 参考訳(メタデータ) (2023-01-18T16:55:15Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - BEHAVE: Dataset and Method for Tracking Human Object Interactions [105.77368488612704]
マルチビューのRGBDフレームとそれに対応する3D SMPLとオブジェクトをアノテートしたアノテートコンタクトに適合させる。
このデータを用いて、自然環境における人間と物体を、容易に使用可能なマルチカメラで共同で追跡できるモデルを学ぶ。
論文 参考訳(メタデータ) (2022-04-14T13:21:19Z) - Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos [49.52070710518688]
一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
論文 参考訳(メタデータ) (2021-11-02T13:40:18Z) - ContactOpt: Optimizing Contact to Improve Grasps [17.518463627346897]
手と物体の物理的接触は、人間の把握に重要な役割を果たします。
本研究では,物体との接触が期待できるハンドポーズの最適化により,イメージベース手法によるハンドポーズの改善が期待できることを示す。
論文 参考訳(メタデータ) (2021-04-15T06:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。