論文の概要: Analyzing the Synthetic-to-Real Domain Gap in 3D Hand Pose Estimation
- arxiv url: http://arxiv.org/abs/2503.19307v1
- Date: Tue, 25 Mar 2025 03:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:55:37.229969
- Title: Analyzing the Synthetic-to-Real Domain Gap in 3D Hand Pose Estimation
- Title(参考訳): 3次元ハンドポース推定における合成-再帰領域ギャップの解析
- Authors: Zhuoran Zhao, Linlin Yang, Pengzhan Sun, Pan Hui, Angela Yao,
- Abstract要約: 本稿では,3次元手ポーズ推定における合成と現実のギャップに関する最初の体系的研究について述べる。
分析を容易にするために,高品質なデータを合成するためのデータ合成パイプラインを提案する。
本研究は, 実データと同一の精度で, 同定したコンポーネントを組み込むことで, 実データと同一の精度が得られることを示す。
- 参考スコア(独自算出の注目度): 41.382984217586504
- License:
- Abstract: Recent synthetic 3D human datasets for the face, body, and hands have pushed the limits on photorealism. Face recognition and body pose estimation have achieved state-of-the-art performance using synthetic training data alone, but for the hand, there is still a large synthetic-to-real gap. This paper presents the first systematic study of the synthetic-to-real gap of 3D hand pose estimation. We analyze the gap and identify key components such as the forearm, image frequency statistics, hand pose, and object occlusions. To facilitate our analysis, we propose a data synthesis pipeline to synthesize high-quality data. We demonstrate that synthetic hand data can achieve the same level of accuracy as real data when integrating our identified components, paving the path to use synthetic data alone for hand pose estimation. Code and data are available at: https://github.com/delaprada/HandSynthesis.git.
- Abstract(参考訳): 顔、体、手のための最近の合成3D人間のデータセットは、光リアリズムの限界を押し上げている。
顔の認識と身体のポーズ推定は、合成トレーニングデータだけで最先端のパフォーマンスを達成したが、手にとってはまだ大きな合成と現実のギャップがある。
本稿では,3次元手ポーズ推定における合成と現実のギャップに関する最初の体系的研究について述べる。
我々はこのギャップを分析し、前腕、画像周波数統計、ポーズ、物体の閉塞といった重要な要素を識別する。
分析を容易にするために,高品質なデータを合成するためのデータ合成パイプラインを提案する。
本研究は,合成データのみを用いて手振り推定を行う場合に,実データと同一の精度を達成できることを実証する。
コードとデータは、https://github.com/delaprada/HandSynthesis.git.comで入手できる。
関連論文リスト
- Drive-1-to-3: Enriching Diffusion Priors for Novel View Synthesis of Real Vehicles [81.29018359825872]
本稿では,実世界の課題に対して,大規模な事前学習モデルを微調整するための一連の優れたプラクティスを統合する。
具体的には,合成データと実運転データとの相違を考慮に入れたいくつかの戦略を開発する。
我々の洞察は、先行芸術よりも新しいビュー合成のためのFIDを68.8%値下げする効果のある微調整につながる。
論文 参考訳(メタデータ) (2024-12-19T03:39:13Z) - G-HOP: Generative Hand-Object Prior for Interaction Reconstruction and Grasp Synthesis [57.07638884476174]
G-HOPは手-対象相互作用の前駆体である。
人手は骨格距離場を介して表現し、物体の符号付き距離場と整合した表現を得る。
この手動物体は、対話クリップからの再構成や人間のつかみ合成など、他の作業を容易にするための汎用的なガイダンスとして機能することを示す。
論文 参考訳(メタデータ) (2024-04-18T17:59:28Z) - HandBooster: Boosting 3D Hand-Mesh Reconstruction by Conditional Synthesis and Sampling of Hand-Object Interactions [68.28684509445529]
HandBoosterは、データの多様性を向上し、3Dハンド・ミーシュ・リコンストラクションのパフォーマンスを向上する新しいアプローチである。
まず,多様な手やポーズ,ビュー,背景を持つリアルな画像を生成するために,拡散モデルを誘導する多目的コンテンツ認識条件を構築した。
そこで我々は,我々の類似性を考慮した分布サンプリング戦略に基づく新しい条件作成手法を設計し,トレーニングセットとは異なる,斬新で現実的なインタラクションのポーズを意図的に見つける。
論文 参考訳(メタデータ) (2024-03-27T13:56:08Z) - Data-Agnostic Face Image Synthesis Detection Using Bayesian CNNs [23.943447945946705]
顔画像合成プロセスを検出するための,データに依存しない手法を提案する。
我々のソリューションは、推論プロセスを学ぶために実際のデータのみを必要とする異常検出フレームワークに基づいている。
論文 参考訳(メタデータ) (2024-01-08T21:23:23Z) - Training Robust Deep Physiological Measurement Models with Synthetic
Video-based Data [11.31971398273479]
合成生理的信号とそれに対応する顔画像に現実の雑音を加える方法を提案する。
その結果,MAEの平均値は6.9から2.0に減少した。
論文 参考訳(メタデータ) (2023-11-09T13:55:45Z) - RenderIH: A Large-scale Synthetic Dataset for 3D Interacting Hand Pose
Estimation [19.840282327688776]
本稿では、手と正確なポーズアノテーションを相互作用する大規模な合成データセットRenderIHを提案する。
データセットには、背景、視点、手のテクスチャの異なる100万枚の写真リアル画像が含まれている。
より正確なポーズ推定を行うために,トランスHandというトランスフォーマーベースのポーズ推定ネットワークを導入する。
論文 参考訳(メタデータ) (2023-09-17T15:30:58Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z) - Fake It Till You Make It: Face analysis in the wild using synthetic data
alone [9.081019005437309]
合成データだけで顔関連コンピュータビジョンを野生で実行可能であることを示す。
本稿では、手続き的に生成された3次元顔モデルと手作り資産の包括的ライブラリを組み合わせることで、前例のないリアリズムによるトレーニング画像のレンダリングを行う方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T13:07:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。