論文の概要: Information Maximization for Extreme Pose Face Recognition
- arxiv url: http://arxiv.org/abs/2209.03456v1
- Date: Wed, 7 Sep 2022 20:30:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:01:04.706261
- Title: Information Maximization for Extreme Pose Face Recognition
- Title(参考訳): 極端なポーズ認識のための情報最大化
- Authors: Mohammad Saeed Ebrahimi Saadabadi, Sahar Rahimi Malakshan, Sobhan
Soleymani, Moktari Mostofa, and Nasser M. Nasrabadi
- Abstract要約: 我々は、結合エンコーダネットワークを用いて、正面/目立たしい顔画像を共通の埋め込み空間に投影する接続を利用する。
提案モデルは,顔の2つのビュー間の相互情報を最大化することにより,埋め込み空間における表現の類似性を強制する。
- 参考スコア(独自算出の注目度): 18.545778273606427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we seek to draw connections between the frontal and profile
face images in an abstract embedding space. We exploit this connection using a
coupled-encoder network to project frontal/profile face images into a common
latent embedding space. The proposed model forces the similarity of
representations in the embedding space by maximizing the mutual information
between two views of the face. The proposed coupled-encoder benefits from three
contributions for matching faces with extreme pose disparities. First, we
leverage our pose-aware contrastive learning to maximize the mutual information
between frontal and profile representations of identities. Second, a memory
buffer, which consists of latent representations accumulated over past
iterations, is integrated into the model so it can refer to relatively much
more instances than the mini-batch size. Third, a novel pose-aware adversarial
domain adaptation method forces the model to learn an asymmetric mapping from
profile to frontal representation. In our framework, the coupled-encoder learns
to enlarge the margin between the distribution of genuine and imposter faces,
which results in high mutual information between different views of the same
identity. The effectiveness of the proposed model is investigated through
extensive experiments, evaluations, and ablation studies on four benchmark
datasets, and comparison with the compelling state-of-the-art algorithms.
- Abstract(参考訳): 本稿では,正面面画像とプロファイル面画像との接続を抽象的な埋め込み空間に描画する。
我々は、この接続を結合エンコーダネットワークを用いて、フロント/プロファイルの顔画像を共通の潜在埋め込み空間に投影する。
提案モデルは,顔の2つのビュー間の相互情報を最大化することにより,埋め込み空間における表現の類似性を強制する。
提案した結合エンコーダは、極端なポーズの相違による顔のマッチングに3つの貢献から得られる。
まず、ポーズ認識のコントラスト学習を利用して、前頭とプロファイルの表現の相互情報を最大化する。
次に、過去のイテレーションで蓄積された潜在表現からなるメモリバッファをモデルに統合することで、ミニバッチサイズよりもはるかに多くのインスタンスを参照することができる。
第三に、新しいポーズ認識の逆領域適応法により、モデルにプロファイルからフロント表現への非対称なマッピングを学習させる。
このフレームワークでは、結合エンコーダは、真面と偽面の分布のマージンを拡大し、同一のアイデンティティの異なるビュー間で高い相互情報をもたらす。
提案モデルの有効性は,4つのベンチマークデータセットに対する広範な実験,評価,アブレーション研究,および魅力的な最先端アルゴリズムとの比較を通じて検討される。
関連論文リスト
- DiHuR: Diffusion-Guided Generalizable Human Reconstruction [51.31232435994026]
一般化可能なヒト3次元再構成のための拡散誘導モデルであるDiHuRを導入し,スパース・ミニマル・オーバーラップ画像からのビュー合成について述べる。
提案手法は, 一般化可能なフィードフォワードモデルと2次元拡散モデルとの2つのキー前処理をコヒーレントな方法で統合する。
論文 参考訳(メタデータ) (2024-11-16T03:52:23Z) - DreamMover: Leveraging the Prior of Diffusion Models for Image Interpolation with Large Motion [35.60459492849359]
本研究では,大きな動きを持つ画像対から中間画像を生成する問題について検討する。
大きな動きのため、中間的な意味情報は入力画像に欠落する可能性がある。
3つの主要コンポーネントを持つ新しいイメージフレームワークであるDreamMoverを提案する。
論文 参考訳(メタデータ) (2024-09-15T04:09:12Z) - Towards Self-Supervised FG-SBIR with Unified Sample Feature Alignment and Multi-Scale Token Recycling [11.129453244307369]
FG-SBIRは、埋め込み空間におけるスケッチと対応する画像の距離を最小化することを目的としている。
両領域間のギャップを狭める効果的なアプローチを提案する。
主に、イントラサンプルとインターサンプルの両方を共有する統一的な相互情報共有を促進する。
論文 参考訳(メタデータ) (2024-06-17T13:49:12Z) - Explicit Correspondence Matching for Generalizable Neural Radiance
Fields [49.49773108695526]
本稿では,新たな未知のシナリオに一般化し,2つのソースビューで新規なビュー合成を行う新しいNeRF手法を提案する。
明瞭な対応マッチングは、異なるビュー上の3Dポイントの2次元投影でサンプリングされた画像特徴間のコサイン類似度と定量化される。
実験では,実験結果から得られたコサイン特徴の類似性と体積密度との間に強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-04-24T17:46:01Z) - Semantic-aware One-shot Face Re-enactment with Dense Correspondence
Estimation [100.60938767993088]
ワンショットの顔の再現は、ソースと駆動する顔の同一性ミスマッチのため、難しい作業である。
本稿では,3次元形態素モデル(3DMM)を明示的な顔のセマンティックな分解とアイデンティティの絡み合いに利用することを提案する。
論文 参考訳(メタデータ) (2022-11-23T03:02:34Z) - Unifying Flow, Stereo and Depth Estimation [121.54066319299261]
本稿では3つの動作と3次元知覚タスクのための統一的な定式化とモデルを提案する。
これら3つのタスクを、統一された高密度対応マッチング問題として定式化する。
我々のモデルは、モデルアーキテクチャとパラメータがタスク間で共有されているため、自然にクロスタスク転送を可能にします。
論文 参考訳(メタデータ) (2022-11-10T18:59:54Z) - Mutual Information Maximization on Disentangled Representations for
Differential Morph Detection [29.51265709271036]
ランドマークと外観のゆがみを利用した新しい微分形態検出フレームワークを提案する。
提案するフレームワークは、最先端の微分形態検出性能を提供する。
論文 参考訳(メタデータ) (2020-12-02T21:31:02Z) - Face Frontalization Based on Robustly Fitting a Deformable Shape Model
to 3D Landmarks [24.07648367866321]
顔の正面化は、任意に視認された顔から正面に視認された顔で構成される。
本論文の主な貢献は,画素対ピクセルワープを可能にする頑健な顔アライメント法である。
提案手法の重要な利点は、ノイズ(小摂動)と外乱(大誤差)の両方を扱う能力である。
論文 参考訳(メタデータ) (2020-10-26T15:52:50Z) - Multi-Margin based Decorrelation Learning for Heterogeneous Face
Recognition [90.26023388850771]
本稿では,超球面空間におけるデコリレーション表現を抽出するディープニューラルネットワーク手法を提案する。
提案するフレームワークは,不均一表現ネットワークとデコリレーション表現学習の2つのコンポーネントに分けることができる。
2つの難解な異種顔データベースに対する実験結果から,本手法は検証タスクと認識タスクの両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-25T07:01:12Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。