論文の概要: LDDMM-Face: Large Deformation Diffeomorphic Metric Learning for Flexible
and Consistent Face Alignment
- arxiv url: http://arxiv.org/abs/2108.00690v1
- Date: Mon, 2 Aug 2021 07:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:15:54.176994
- Title: LDDMM-Face: Large Deformation Diffeomorphic Metric Learning for Flexible
and Consistent Face Alignment
- Title(参考訳): LDDMM-Face:フレキシブルかつ一貫性のある顔アライメントのための大変形拡散型メトリックラーニング
- Authors: Huilin Yang, Junyan Lyu, Pujin Cheng, Xiaoying Tang
- Abstract要約: フレキシブルで一貫した顔アライメントフレームワーク LDDMM-Face を提案する。
重要な貢献は、顔の幾何学を微分同相的に自然に埋め込む変形層である。
我々は,300W,WFLW,HELEN,COFW-68の4つのベンチマークデータセット上でLDDMM-Faceを広範囲に評価した。
- 参考スコア(独自算出の注目度): 0.745554610293091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We innovatively propose a flexible and consistent face alignment framework,
LDDMM-Face, the key contribution of which is a deformation layer that naturally
embeds facial geometry in a diffeomorphic way. Instead of predicting facial
landmarks via heatmap or coordinate regression, we formulate this task in a
diffeomorphic registration manner and predict momenta that uniquely
parameterize the deformation between initial boundary and true boundary, and
then perform large deformation diffeomorphic metric mapping (LDDMM)
simultaneously for curve and landmark to localize the facial landmarks. Due to
the embedding of LDDMM into a deep network, LDDMM-Face can consistently
annotate facial landmarks without ambiguity and flexibly handle various
annotation schemes, and can even predict dense annotations from sparse ones.
Our method can be easily integrated into various face alignment networks. We
extensively evaluate LDDMM-Face on four benchmark datasets: 300W, WFLW, HELEN
and COFW-68. LDDMM-Face is comparable or superior to state-of-the-art methods
for traditional within-dataset and same-annotation settings, but truly
distinguishes itself with outstanding performance when dealing with
weakly-supervised learning (partial-to-full), challenging cases (e.g., occluded
faces), and different training and prediction datasets. In addition, LDDMM-Face
shows promising results on the most challenging task of predicting across
datasets with different annotation schemes.
- Abstract(参考訳): 本稿では, フレキシブルで一貫した顔アライメントフレームワーク LDDMM-Face を革新的に提案する。
ヒートマップや座標回帰によって顔のランドマークを予測する代わりに、このタスクをディファモーフィックな登録方法で定式化し、初期境界と真の境界の間の変形を一意にパラメータ化するモーメントを予測し、曲線とランドマークを同時に大変形ディファモーフィメトリックマッピング(lddmm)を行い、顔のランドマークを局所化する。
ディープネットワークへのltdmmの埋め込みにより、lddmm-faceはあいまいさなく一貫して顔のランドマークに注釈を付けることができ、様々なアノテーションスキームを柔軟に処理できる。
本手法は様々な顔アライメントネットワークに容易に統合できる。
我々は,300W,WFLW,HELEN,COFW-68の4つのベンチマークデータセット上でLDDMM-Faceを広範囲に評価した。
lddmm-faceは、従来のイントラデータセットや同注釈設定の最先端の手法に匹敵する、あるいは優れているが、弱い教師付き学習(部分対フル)、挑戦的なケース(例: occluded faces)、異なるトレーニングと予測データセットを扱う際の優れたパフォーマンスと真に区別する。
さらに、LCDMM-Faceは、異なるアノテーションスキームを持つデータセット間で予測する最も難しいタスクにおいて、有望な結果を示す。
関連論文リスト
- FineCLIPER: Multi-modal Fine-grained CLIP for Dynamic Facial Expression Recognition with AdaptERs [5.35588281968644]
適応器を用いた動的顔表情認識のためのマルチモーダルきめ細粒度CLIP(Fine CLIPER)を提案する。
我々のFine CLIPERは、パラメータが少ないDFEW、FERV39k、MAFWデータセットで調整可能なSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-07-02T10:55:43Z) - Optimal-Landmark-Guided Image Blending for Face Morphing Attacks [8.024953195407502]
本稿では,最適なランドマーク誘導画像ブレンディングを用いた顔形態形成攻撃を行うための新しい手法を提案する。
提案手法は, ランドマークの最適化とグラフ畳み込みネットワーク(GCN)によるランドマークと外観特徴の組み合わせにより, 従来のアプローチの限界を克服する。
論文 参考訳(メタデータ) (2024-01-30T03:45:06Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - BlendFields: Few-Shot Example-Driven Facial Modeling [35.86727715239676]
本稿では,従来のコンピュータグラフィックス技術からインスピレーションを得てギャップを埋める手法を提案する。
見えない表現は、極端なポーズのスパースセットからの外観をブレンドすることによってモデル化される。
本研究では, 顔の滑らかな体積変形の上に, きめ細かな効果を加えることによって, 表情を一般化する手法を示す。
論文 参考訳(メタデータ) (2023-05-12T14:30:07Z) - Decoupled Multi-task Learning with Cyclical Self-Regulation for Face
Parsing [71.19528222206088]
顔解析のための周期的自己統制型デカップリング型マルチタスク学習を提案する。
具体的には、DML-CSRは、顔解析、バイナリエッジ、カテゴリエッジ検出を含むマルチタスクモデルを設計する。
提案手法は,Helen,CelebA-HQ,LapaMaskのデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T02:12:30Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Shape My Face: Registering 3D Face Scans by Surface-to-Surface
Translation [75.59415852802958]
Shape-My-Face (SMF) は、改良されたポイントクラウドエンコーダ、新しい視覚的注意機構、スキップ接続付きグラフ畳み込みデコーダ、特殊口モデルに基づく強力なエンコーダデコーダアーキテクチャである。
私たちのモデルは、トポロジカルにサウンドメッシュを最小限の監視で提供し、より高速なトレーニング時間を提供し、訓練可能なパラメータを桁違いに減らし、ノイズに強く、以前は見られないデータセットに一般化することができます。
論文 参考訳(メタデータ) (2020-12-16T20:02:36Z) - BioMetricNet: deep unconstrained face verification through learning of
metrics regularized onto Gaussian distributions [25.00475462213752]
深層非拘束顔認証のための新しいフレームワークであるBioMetricNetを提案する。
提案手法では、顔の特徴について具体的な指標を課していない。
マッチングと非マッチングのペアを、明確に分離された、よく定義されたターゲット分布にマッピングする潜在表現を学習することで、決定空間を形成する。
論文 参考訳(メタデータ) (2020-08-13T17:22:46Z) - Semi-Siamese Training for Shallow Face Learning [78.7386209619276]
セミ・シームズ・トレーニング(SST)という新しいトレーニング手法を導入する。
一対のセミ・シームズネットワークが前方伝播構造を構成し、トレーニング損失を更新ギャラリーキューで計算する。
提案手法は外部依存を伴わずに開発されており,既存の損失関数やネットワークアーキテクチャと柔軟に統合することができる。
論文 参考訳(メタデータ) (2020-07-16T15:20:04Z) - Multi-Margin based Decorrelation Learning for Heterogeneous Face
Recognition [90.26023388850771]
本稿では,超球面空間におけるデコリレーション表現を抽出するディープニューラルネットワーク手法を提案する。
提案するフレームワークは,不均一表現ネットワークとデコリレーション表現学習の2つのコンポーネントに分けることができる。
2つの難解な異種顔データベースに対する実験結果から,本手法は検証タスクと認識タスクの両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-25T07:01:12Z) - Towards Universal Representation Learning for Deep Face Recognition [106.21744671876704]
対象のドメイン知識を活用せずに、与えられたトレーニングデータに見つからない大きな変化に対処できる普遍的な表現学習フレームワークを提案する。
実験により,LFW や MegaFace などの一般的な顔認識データセットにおいて,本手法が最高性能を実現することを示す。
論文 参考訳(メタデータ) (2020-02-26T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。