論文の概要: A Dataset of Relighted 3D Interacting Hands
- arxiv url: http://arxiv.org/abs/2310.17768v1
- Date: Thu, 26 Oct 2023 20:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 15:34:01.283876
- Title: A Dataset of Relighted 3D Interacting Hands
- Title(参考訳): Relighted 3D Interacting Hands のデータセット
- Authors: Gyeongsik Moon, Shunsuke Saito, Weipeng Xu, Rohan Joshi, Julia
Buffalini, Harley Bellan, Nicholas Rosen, Jesse Richardson, Mallorie Mize,
Philippe de Bree, Tomas Simon, Bo Peng, Shubham Garg, Kevyn McPhail, Takaaki
Shiratori
- Abstract要約: Re:InterHandは、リライト付きの3Dインタラクションハンドのデータセットだ。
我々は、両手の3Dポーズを正確に追跡した、最先端の手のリライトネットワークを採用している。
- 参考スコア(独自算出の注目度): 37.31717123107306
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The two-hand interaction is one of the most challenging signals to analyze
due to the self-similarity, complicated articulations, and occlusions of hands.
Although several datasets have been proposed for the two-hand interaction
analysis, all of them do not achieve 1) diverse and realistic image appearances
and 2) diverse and large-scale groundtruth (GT) 3D poses at the same time. In
this work, we propose Re:InterHand, a dataset of relighted 3D interacting hands
that achieve the two goals. To this end, we employ a state-of-the-art hand
relighting network with our accurately tracked two-hand 3D poses. We compare
our Re:InterHand with existing 3D interacting hands datasets and show the
benefit of it. Our Re:InterHand is available in
https://mks0601.github.io/ReInterHand/.
- Abstract(参考訳): 両手の相互作用は、自己相似性、複雑な調音、手の閉塞のために分析する最も難しい信号の1つである。
双方向インタラクション分析のためにいくつかのデータセットが提案されているが、いずれも達成されていない。
1)多様で現実的な画像の出現
2)多様で大規模なグラウンドトラス(gt)3dポーズを同時に行う。
本研究では,この2つの目標を達成する3DインタラクションハンドのデータセットであるRe:InterHandを提案する。
この目的のために、我々は、正確に追跡された両手の3Dポーズを備えた最先端の手のリライトネットワークを採用している。
Re:InterHandと既存の3Dインタラクションハンドデータセットを比較し、そのメリットを示します。
私たちのRe:InterHandはhttps://mks0601.github.io/ReInterHand/で利用可能です。
関連論文リスト
- ARCTIC: A Dataset for Dexterous Bimanual Hand-Object Manipulation [68.80339307258835]
ARCTICは、オブジェクトを巧みに操作する両手のデータセットである。
正確な3Dハンドメッシュと、詳細でダイナミックな接触情報を組み合わせた2.1Mビデオフレームを含んでいる。
論文 参考訳(メタデータ) (2022-04-28T17:23:59Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - HandsFormer: Keypoint Transformer for Monocular 3D Pose Estimation
ofHands and Object in Interaction [33.661745138578596]
単色画像からの密接な相互作用で両手の3次元ポーズを推定する頑健で正確な手法を提案する。
本手法は, 両手関節の電位2d位置をヒートマップの極値として抽出することから始まる。
これらの位置の外観と空間エンコーディングを変圧器への入力として使用し、注意メカニズムを利用して関節の正しい構成を整理します。
論文 参考訳(メタデータ) (2021-04-29T20:19:20Z) - H2O: Two Hands Manipulating Objects for First Person Interaction
Recognition [70.46638409156772]
両手操作対象のマーカーレス3Dアノテーションを用いて,エゴセントリックな対話認識のための包括的なフレームワークを提案する。
本手法は,2つの手の3次元ポーズと操作対象の6次元ポーズのアノテーションと,それぞれのフレームのインタラクションラベルを生成する。
我々のデータセットは、H2O (2 Hands and Objects)と呼ばれ、同期されたマルチビューRGB-D画像、対話ラベル、オブジェクトクラス、左右の手でのグラウンドトルース3Dポーズ、6Dオブジェクトポーズ、グラウンドトルースカメラポーズ、オブジェクトメッシュ、シーンポイントクラウドを提供する。
論文 参考訳(メタデータ) (2021-04-22T17:10:42Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - InterHand2.6M: A Dataset and Baseline for 3D Interacting Hand Pose
Estimation from a Single RGB Image [71.17227941339935]
大規模データセットであるInterHand2.6Mと,1枚のRGB画像から3次元インタラクションハンドポーズ推定を行うネットワークであるInterNetを提案する。
実験では,InterHand2.6Mのインタラクションハンドデータを利用する場合,3次元インタラクションハンドポーズ推定の精度が大きく向上することを示した。
この新しいデータセットの強力なベースラインとして機能するInterHand2.6M上でのInterNetの精度についても報告する。
論文 参考訳(メタデータ) (2020-08-21T05:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。