論文の概要: Efficient Label Refinement for Face Parsing Under Extreme Poses Using 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2510.08096v1
- Date: Thu, 09 Oct 2025 11:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.041382
- Title: Efficient Label Refinement for Face Parsing Under Extreme Poses Using 3D Gaussian Splatting
- Title(参考訳): 3次元ガウススプラッティングによる極端点下での顔解析のための効率的なラベルリファインメント
- Authors: Ankit Gahlawat, Anirban Mukherjee, Dinesh Babu Jayagopi,
- Abstract要約: この洗練されたデータセットで顔解析モデルを微調整すると、挑戦的な頭部ポーズの精度が大幅に向上する。
本手法は,実環境における顔解析の堅牢性を改善するために,スケーラブルで効果的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 1.920417589590116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate face parsing under extreme viewing angles remains a significant challenge due to limited labeled data in such poses. Manual annotation is costly and often impractical at scale. We propose a novel label refinement pipeline that leverages 3D Gaussian Splatting (3DGS) to generate accurate segmentation masks from noisy multiview predictions. By jointly fitting two 3DGS models, one to RGB images and one to their initial segmentation maps, our method enforces multiview consistency through shared geometry, enabling the synthesis of pose-diverse training data with only minimal post-processing. Fine-tuning a face parsing model on this refined dataset significantly improves accuracy on challenging head poses, while maintaining strong performance on standard views. Extensive experiments, including human evaluations, demonstrate that our approach achieves superior results compared to state-of-the-art methods, despite requiring no ground-truth 3D annotations and using only a small set of initial images. Our method offers a scalable and effective solution for improving face parsing robustness in real- world settings.
- Abstract(参考訳): 極端な視角下での正確な顔解析は、そのようなポーズにおけるラベル付きデータに制限があるため、依然として重要な課題である。
手動のアノテーションは費用がかかるが、大規模ではしばしば実用的ではない。
本稿では,3次元ガウススプラッティング(3DGS)を利用して,ノイズの多いマルチビュー予測から正確なセグメンテーションマスクを生成する新しいラベルリファインメントパイプラインを提案する。
RGB画像と初期セグメンテーションマップの2つの3DGSモデルとを併用することにより、共有幾何によるマルチビュー整合性を実現し、最小限のポストプロセッシングによるポーズ・クロストレーニングデータの合成を可能にする。
この洗練されたデータセットで顔解析モデルを微調整することで、挑戦的な頭部ポーズの精度が大幅に向上すると同時に、標準的なビューでの強いパフォーマンスを維持している。
人間の評価を含む広範囲な実験により,基礎となる3Dアノテーションを必要とせず,初期画像のみを使用するにも関わらず,最先端の手法よりも優れた結果が得られることが示された。
本手法は,実環境における顔解析の堅牢性を改善するために,スケーラブルで効果的なソリューションを提供する。
関連論文リスト
- A Controllable 3D Deepfake Generation Framework with Gaussian Splatting [6.969908558294805]
本稿では,3次元ガウススプラッティングに基づく新しい3次元ディープフェイク生成フレームワークを提案する。
完全に制御可能な3D空間において、現実的でアイデンティティを保った顔スワッピングと再現を可能にする。
提案手法は3次元モデリングとディープフェイク合成のギャップを埋め、シーン認識、制御可能、没入型視覚的偽造の新しい方向を可能にする。
論文 参考訳(メタデータ) (2025-09-15T06:34:17Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - TranSplat: Generalizable 3D Gaussian Splatting from Sparse Multi-View Images with Transformers [14.708092244093665]
我々は,正確な局所特徴マッチングを導くために,予測深度信頼マップを利用する戦略を開発する。
本稿では,RealEstate10KベンチマークとACIDベンチマークの両方で最高の性能を示すTranSplatという新しいG-3DGS手法を提案する。
論文 参考訳(メタデータ) (2024-08-25T08:37:57Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。