論文の概要: ARCTIC: A Dataset for Dexterous Bimanual Hand-Object Manipulation
- arxiv url: http://arxiv.org/abs/2204.13662v3
- Date: Sun, 23 Apr 2023 13:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 00:24:17.617054
- Title: ARCTIC: A Dataset for Dexterous Bimanual Hand-Object Manipulation
- Title(参考訳): ARCTIC: Dexterous Bimanual Hand-Object Manipulationのためのデータセット
- Authors: Zicong Fan, Omid Taheri, Dimitrios Tzionas, Muhammed Kocabas, Manuel
Kaufmann, Michael J. Black, and Otmar Hilliges
- Abstract要約: ARCTICは、オブジェクトを巧みに操作する両手のデータセットである。
正確な3Dハンドメッシュと、詳細でダイナミックな接触情報を組み合わせた2.1Mビデオフレームを含んでいる。
- 参考スコア(独自算出の注目度): 68.80339307258835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans intuitively understand that inanimate objects do not move by
themselves, but that state changes are typically caused by human manipulation
(e.g., the opening of a book). This is not yet the case for machines. In part
this is because there exist no datasets with ground-truth 3D annotations for
the study of physically consistent and synchronised motion of hands and
articulated objects. To this end, we introduce ARCTIC -- a dataset of two hands
that dexterously manipulate objects, containing 2.1M video frames paired with
accurate 3D hand and object meshes and detailed, dynamic contact information.
It contains bi-manual articulation of objects such as scissors or laptops,
where hand poses and object states evolve jointly in time. We propose two novel
articulated hand-object interaction tasks: (1) Consistent motion
reconstruction: Given a monocular video, the goal is to reconstruct two hands
and articulated objects in 3D, so that their motions are spatio-temporally
consistent. (2) Interaction field estimation: Dense relative hand-object
distances must be estimated from images. We introduce two baselines ArcticNet
and InterField, respectively and evaluate them qualitatively and quantitatively
on ARCTIC. Our code and data are available at https://arctic.is.tue.mpg.de.
- Abstract(参考訳): 人間は直感的に、無生物は自力で動くのではなく、その状態の変化は人間の操作によって引き起こされる(例えば、書籍の冒頭)。
これはまだマシンには当てはまらない。
これは、手と関節の物体の物理的に一貫した、同期した動きを研究するために、3Dアノテーションを用いたデータセットが存在しないためである。
この目的のために、ARCTIC - オブジェクトを巧みに操作する2つのハンドのデータセットを導入し、正確な3Dハンドとオブジェクトメッシュと組み合わせた210万のビデオフレームと、詳細でダイナミックな接触情報を含む。
はさみやノートパソコンなどの物体を手動で記述し、手ポーズや物体の状態は時間とともに一緒に進化する。
1) 連続的な動き再構成: モノクロ映像が与えられた場合、その目的は2つの手と3次元の関節オブジェクトを復元し、その動きが時空間的に一貫するようにすることである。
2) 相互作用場推定: 画像から密接な相対対象距離を推定する必要がある。
本研究では,ArcticNetとInterFieldの2つのベースラインを導入し,ARCTIC上で定性的かつ定量的に評価する。
私たちのコードとデータはhttps://arctic.is.tue.mpg.de.com/で利用可能です。
関連論文リスト
- HOLD: Category-agnostic 3D Reconstruction of Interacting Hands and
Objects from Video [70.11702620562889]
HOLD - 単分子インタラクションビデオから手とオブジェクトを共同で再構成する最初のカテゴリーに依存しない方法。
我々は,3次元手と物体を2次元画像から切り離すことができる構成的明瞭な暗黙モデルを開発した。
本手法は,3次元手オブジェクトアノテーションに頼らず,組込みと組込みの両面において,完全教師付きベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-30T10:50:35Z) - SHOWMe: Benchmarking Object-agnostic Hand-Object 3D Reconstruction [13.417086460511696]
96本の動画からなるSHOWMeデータセットについて,実物と詳細な3Dテクスチャメッシュで注釈付けした。
我々は、手の動きがビデオシーケンス全体を通して一定である厳密な手オブジェクトのシナリオを考察する。
この仮定により、SHOWMeの画像シーケンスにサブミリメートル精度の基底3Dスキャンを登録できる。
論文 参考訳(メタデータ) (2023-09-19T16:48:29Z) - CaSAR: Contact-aware Skeletal Action Recognition [47.249908147135855]
コンタクト対応骨格行動認識(CaSAR)と呼ばれる新しいフレームワークを提案する。
CaSARは空間情報を包含する手オブジェクト相互作用の新たな表現を使用する。
我々のフレームワークは、アクションシーケンスの各フレームのオブジェクトに触れたり、遠ざかったりする方法を学び、この情報を使ってアクションクラスを予測することができる。
論文 参考訳(メタデータ) (2023-09-17T09:42:40Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos [49.52070710518688]
一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
論文 参考訳(メタデータ) (2021-11-02T13:40:18Z) - D3D-HOI: Dynamic 3D Human-Object Interactions from Videos [49.38319295373466]
本稿では,D3D-HOIについて紹介する。D3D-HOIは3次元オブジェクトのポーズ,形状,動きを,人間と物体の相互作用の時,地上の真理アノテーションを付加したモノクロビデオのデータセットである。
我々のデータセットは、様々な現実世界のシーンとカメラの視点から捉えた、いくつかの共通したオブジェクトで構成されている。
我々は、推定された3次元人間のポーズを利用して、物体の空間的レイアウトとダイナミクスをより正確に推定する。
論文 参考訳(メタデータ) (2021-08-19T00:49:01Z) - HandsFormer: Keypoint Transformer for Monocular 3D Pose Estimation
ofHands and Object in Interaction [33.661745138578596]
単色画像からの密接な相互作用で両手の3次元ポーズを推定する頑健で正確な手法を提案する。
本手法は, 両手関節の電位2d位置をヒートマップの極値として抽出することから始まる。
これらの位置の外観と空間エンコーディングを変圧器への入力として使用し、注意メカニズムを利用して関節の正しい構成を整理します。
論文 参考訳(メタデータ) (2021-04-29T20:19:20Z) - H2O: Two Hands Manipulating Objects for First Person Interaction
Recognition [70.46638409156772]
両手操作対象のマーカーレス3Dアノテーションを用いて,エゴセントリックな対話認識のための包括的なフレームワークを提案する。
本手法は,2つの手の3次元ポーズと操作対象の6次元ポーズのアノテーションと,それぞれのフレームのインタラクションラベルを生成する。
我々のデータセットは、H2O (2 Hands and Objects)と呼ばれ、同期されたマルチビューRGB-D画像、対話ラベル、オブジェクトクラス、左右の手でのグラウンドトルース3Dポーズ、6Dオブジェクトポーズ、グラウンドトルースカメラポーズ、オブジェクトメッシュ、シーンポイントクラウドを提供する。
論文 参考訳(メタデータ) (2021-04-22T17:10:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。