論文の概要: Face Normal Estimation from Rags to Riches
- arxiv url: http://arxiv.org/abs/2601.01950v1
- Date: Mon, 05 Jan 2026 09:57:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.949661
- Title: Face Normal Estimation from Rags to Riches
- Title(参考訳): ラグからリッチへの顔の正規化推定
- Authors: Meng Wang, Wenjing Dai, Jiawan Zhang, Xiaojie Guo,
- Abstract要約: 本稿では,顔の正規分布推定のための粗大な正規分布推定器を開発する。
遠距離依存を捕捉するために自己注意機構が使用され、推定された粗い顔の正常な局所的なアーティファクトを修復する。
入力された顔画像と対応する模範品とを高精細な顔の正常品にマッピングするために、精細化ネットワークをカスタマイズする。
- 参考スコア(独自算出の注目度): 19.428667785515845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although recent approaches to face normal estimation have achieved promising results, their effectiveness heavily depends on large-scale paired data for training. This paper concentrates on relieving this requirement via developing a coarse-to-fine normal estimator. Concretely, our method first trains a neat model from a small dataset to produce coarse face normals that perform as guidance (called exemplars) for the following refinement. A self-attention mechanism is employed to capture long-range dependencies, thus remedying severe local artifacts left in estimated coarse facial normals. Then, a refinement network is customized for the sake of mapping input face images together with corresponding exemplars to fine-grained high-quality facial normals. Such a logical function split can significantly cut the requirement of massive paired data and computational resource. Extensive experiments and ablation studies are conducted to demonstrate the efficacy of our design and reveal its superiority over state-of-the-art methods in terms of both training expense as well as estimation quality. Our code and models are open-sourced at: https://github.com/AutoHDR/FNR2R.git.
- Abstract(参考訳): 近年、通常の推定に直面するアプローチは有望な結果を得たが、その効果は大規模なペアデータによる訓練に大きく依存している。
本稿では、粗大な正規推定器の開発を通じて、この要件を緩和することに集中する。
具体的には、まず小さなデータセットから適切なモデルをトレーニングし、以下の改良のためのガイダンス(例題と呼ばれる)として機能する粗い顔の正規表現を生成する。
遠距離依存を捕捉するために自己注意機構が使用され、推定された粗い顔の正常な局所的なアーティファクトを修復する。
そして、入力された顔画像と対応する模範品とを高精細な顔の正常品にマッピングするために、精細化ネットワークをカスタマイズする。
このような論理関数分割は、大量のペアデータと計算資源の要求を大幅に削減することができる。
本研究は, 設計の有効性を実証し, トレーニング費用, 評価品質の両面から, 最先端手法よりも優れていることを明らかにするために, 大規模な実験およびアブレーション研究を行った。
私たちのコードとモデルは、https://github.com/AutoHDR/FNR2R.git.comでオープンソース化されています。
関連論文リスト
- Towards Unsupervised Blind Face Restoration using Diffusion Prior [12.69610609088771]
ブラインド顔復元法は、教師付き学習による大規模合成データセットの訓練において、顕著な性能を示した。
これらのデータセットは、手作りの画像分解パイプラインで、低品質の顔イメージをシミュレートすることによって生成されることが多い。
本稿では, 入力画像の集合のみを用いて, 劣化が不明で, 真理の目標がない場合にのみ, 復元モデルの微調整を行うことにより, この問題に対処する。
我々の最良のモデルは、合成と実世界の両方のデータセットの最先端の結果も達成します。
論文 参考訳(メタデータ) (2024-10-06T20:38:14Z) - NeuralGF: Unsupervised Point Normal Estimation by Learning Neural
Gradient Function [55.86697795177619]
3次元点雲の正規推定は3次元幾何処理の基本的な課題である。
我々は,ニューラルネットワークが入力点雲に適合することを奨励する,ニューラルグラデーション関数の学習のための新しいパラダイムを導入する。
広範に使用されているベンチマークの優れた結果から,本手法は非指向性および指向性正常推定タスクにおいて,より正確な正規性を学習できることが示されている。
論文 参考訳(メタデータ) (2023-11-01T09:25:29Z) - Disentangled Pre-training for Image Matting [74.10407744483526]
画像マッチングは、深層モデルのトレーニングをサポートするために高品質なピクセルレベルの人間のアノテーションを必要とする。
本研究では、無限個のデータを活用する自己教師付き事前学習手法を提案し、マッチング性能を向上する。
論文 参考訳(メタデータ) (2023-04-03T08:16:02Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。