論文の概要: InterHand2.6M: A Dataset and Baseline for 3D Interacting Hand Pose
Estimation from a Single RGB Image
- arxiv url: http://arxiv.org/abs/2008.09309v1
- Date: Fri, 21 Aug 2020 05:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:47:59.525978
- Title: InterHand2.6M: A Dataset and Baseline for 3D Interacting Hand Pose
Estimation from a Single RGB Image
- Title(参考訳): InterHand2.6M: 1枚のRGB画像からの3次元干渉型ハンドポース推定のためのデータセットとベースライン
- Authors: Gyeongsik Moon, Shoou-i Yu, He Wen, Takaaki Shiratori, Kyoung Mu Lee
- Abstract要約: 大規模データセットであるInterHand2.6Mと,1枚のRGB画像から3次元インタラクションハンドポーズ推定を行うネットワークであるInterNetを提案する。
実験では,InterHand2.6Mのインタラクションハンドデータを利用する場合,3次元インタラクションハンドポーズ推定の精度が大きく向上することを示した。
この新しいデータセットの強力なベースラインとして機能するInterHand2.6M上でのInterNetの精度についても報告する。
- 参考スコア(独自算出の注目度): 71.17227941339935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analysis of hand-hand interactions is a crucial step towards better
understanding human behavior. However, most researches in 3D hand pose
estimation have focused on the isolated single hand case. Therefore, we firstly
propose (1) a large-scale dataset, InterHand2.6M, and (2) a baseline network,
InterNet, for 3D interacting hand pose estimation from a single RGB image. The
proposed InterHand2.6M consists of \textbf{2.6M labeled single and interacting
hand frames} under various poses from multiple subjects. Our InterNet
simultaneously performs 3D single and interacting hand pose estimation. In our
experiments, we demonstrate big gains in 3D interacting hand pose estimation
accuracy when leveraging the interacting hand data in InterHand2.6M. We also
report the accuracy of InterNet on InterHand2.6M, which serves as a strong
baseline for this new dataset. Finally, we show 3D interacting hand pose
estimation results from general images. Our code and dataset are available at
https://mks0601.github.io/InterHand2.6M/.
- Abstract(参考訳): 手動インタラクションの分析は、人間の振る舞いをよりよく理解するための重要なステップである。
しかし, 3dハンドポーズ推定におけるほとんどの研究は, 孤立した単手症例に焦点をあてている。
そこで,本研究では,(1)大規模データセットであるInterHand2.6M,(2)ベースラインネットワークであるInterNetを提案する。
提案するinterhand2.6mは、複数の被験者の様々なポーズの下で、単層および相互作用するハンドフレームのラベル付き \textbf{2.6m} で構成される。
われわれのInterNetは同時に3Dシングルと対話型ハンドポーズ推定を行う。
実験では,InterHand2.6Mのインタラクションハンドデータを利用する場合,3次元インタラクションハンドポーズ推定の精度が大きく向上することを示した。
この新しいデータセットの強力なベースラインとなるInterHand2.6M上でのInterNetの精度についても報告する。
最後に,一般画像からの3次元手ポーズ推定結果を示す。
私たちのコードとデータセットはhttps://mks0601.github.io/interhand2.6m/で利用可能です。
関連論文リスト
- A Dataset of Relighted 3D Interacting Hands [37.31717123107306]
Re:InterHandは、リライト付きの3Dインタラクションハンドのデータセットだ。
我々は、両手の3Dポーズを正確に追跡した、最先端の手のリライトネットワークを採用している。
論文 参考訳(メタデータ) (2023-10-26T20:26:50Z) - 3D Interacting Hand Pose Estimation by Hand De-occlusion and Removal [85.30756038989057]
単一のRGB画像から3Dインタラクションハンドポーズを推定することは、人間の行動を理解するのに不可欠である。
本稿では,難易度の高い手ポーズ推定タスクを分解し,各手のポーズを別々に推定することを提案する。
実験の結果,提案手法は従来の手ポーズ推定手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-07-22T13:04:06Z) - Monocular 3D Reconstruction of Interacting Hands via Collision-Aware
Factorized Refinements [96.40125818594952]
単眼のRGB画像から3Dインタラクションハンドを再構築する試みを初めて行った。
提案手法では, 高精度な3次元ポーズと最小の衝突で3次元ハンドメッシュを生成することができる。
論文 参考訳(メタデータ) (2021-11-01T08:24:10Z) - Learning to Disambiguate Strongly Interacting Hands via Probabilistic
Per-pixel Part Segmentation [84.28064034301445]
自己相似性と、それぞれの手にピクセル観察を割り当てるあいまいさは、最終的な3Dポーズエラーの大きな原因である。
1つの単眼画像から2つの手の3次元ポーズを推定する新しい手法であるDIGITを提案する。
提案手法は,InterHand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-01T13:28:02Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - H2O: Two Hands Manipulating Objects for First Person Interaction
Recognition [70.46638409156772]
両手操作対象のマーカーレス3Dアノテーションを用いて,エゴセントリックな対話認識のための包括的なフレームワークを提案する。
本手法は,2つの手の3次元ポーズと操作対象の6次元ポーズのアノテーションと,それぞれのフレームのインタラクションラベルを生成する。
我々のデータセットは、H2O (2 Hands and Objects)と呼ばれ、同期されたマルチビューRGB-D画像、対話ラベル、オブジェクトクラス、左右の手でのグラウンドトルース3Dポーズ、6Dオブジェクトポーズ、グラウンドトルースカメラポーズ、オブジェクトメッシュ、シーンポイントクラウドを提供する。
論文 参考訳(メタデータ) (2021-04-22T17:10:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。