論文の概要: Mutual Information Maximization on Disentangled Representations for
Differential Morph Detection
- arxiv url: http://arxiv.org/abs/2012.01542v1
- Date: Wed, 2 Dec 2020 21:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 23:56:00.535809
- Title: Mutual Information Maximization on Disentangled Representations for
Differential Morph Detection
- Title(参考訳): ディファレンシャルモーフ検出のためのアンタングル表現の相互情報最大化
- Authors: Sobhan Soleymani, Ali Dabouei, Fariborz Taherkhani, Jeremy Dawson,
Nasser M. Nasrabadi
- Abstract要約: ランドマークと外観のゆがみを利用した新しい微分形態検出フレームワークを提案する。
提案するフレームワークは、最先端の微分形態検出性能を提供する。
- 参考スコア(独自算出の注目度): 29.51265709271036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a novel differential morph detection framework,
utilizing landmark and appearance disentanglement. In our framework, the face
image is represented in the embedding domain using two disentangled but
complementary representations. The network is trained by triplets of face
images, in which the intermediate image inherits the landmarks from one image
and the appearance from the other image. This initially trained network is
further trained for each dataset using contrastive representations. We
demonstrate that, by employing appearance and landmark disentanglement, the
proposed framework can provide state-of-the-art differential morph detection
performance. This functionality is achieved by the using distances in landmark,
appearance, and ID domains. The performance of the proposed framework is
evaluated using three morph datasets generated with different methodologies.
- Abstract(参考訳): 本稿では,ランドマークと外観のゆがみを利用した新しい微分形態検出フレームワークを提案する。
本フレームワークでは,2つの相補的表現を用いて,顔画像を埋め込み領域で表現する。
ネットワークは、中間画像が1つの画像からランドマークを継承し、他の画像から外観を継承する顔画像の三脚によって訓練される。
当初トレーニングされたこのネットワークは、コントラスト表現を使用してデータセット毎にさらにトレーニングされる。
外観とランドマークの絡み合いを利用することで,提案手法が最先端の微分形態検出性能を提供できることを実証する。
この機能はランドマーク、外観、IDドメインにおける距離を使用することで実現される。
提案フレームワークの性能は,異なる手法で生成された3つの形態データセットを用いて評価する。
関連論文リスト
- Foveation in the Era of Deep Learning [6.602118206533142]
本稿では,グラフ畳み込みネットワークを利用してフェーブ化された画像を処理する,エンドツーエンドで微分可能なアクティブ・ビジョン・アーキテクチャを提案する。
我々のモデルは、分類に関連する画像の領域に反復的に出席することを学ぶ。
我々のモデルは最先端のCNNと、同等のパラメータと与えられたピクセルや予算の視覚アーキテクチャより優れています。
論文 参考訳(メタデータ) (2023-12-03T16:48:09Z) - Cross-Image Attention for Zero-Shot Appearance Transfer [68.43651329067393]
画像間の意味的対応を暗黙的に確立するクロスイメージアテンション機構を導入する。
ノイズの多い潜在コードを操作する3つのメカニズムと、デノナイジングプロセスを通してモデルの内部表現を利用する。
実験により,本手法は多種多様な対象カテゴリに対して有効であり,形状,大きさ,視点の変動に頑健であることが示された。
論文 参考訳(メタデータ) (2023-11-06T18:33:24Z) - Face Feature Visualisation of Single Morphing Attack Detection [13.680968065638108]
本稿では,異なる顔特徴抽出アルゴリズムの視覚化について説明する。
単変態攻撃検出のためのボナファイドの検出と変態画像を可能にする。
この視覚化は、境界ポリシーのためのグラフィカルユーザインタフェースの開発に役立つかもしれない。
論文 参考訳(メタデータ) (2023-04-25T17:51:23Z) - Cross-Modal Fusion Distillation for Fine-Grained Sketch-Based Image
Retrieval [55.21569389894215]
本稿では,視覚変換器(XModalViT)のクロスアテンションフレームワークを提案する。
我々のフレームワークはまず、個々の写真からペア化されたデータポイントをマッピングし、両方のモダリティから情報を統一する融合表現にスケッチする。
次に、上記のモダリティ融合ネットワークの入力空間を、コントラストおよびリレーショナルなクロスモーダル知識蒸留により個々のモダリティの独立エンコーダに分離する。
論文 参考訳(メタデータ) (2022-10-19T11:50:14Z) - Information Maximization for Extreme Pose Face Recognition [18.545778273606427]
我々は、結合エンコーダネットワークを用いて、正面/目立たしい顔画像を共通の埋め込み空間に投影する接続を利用する。
提案モデルは,顔の2つのビュー間の相互情報を最大化することにより,埋め込み空間における表現の類似性を強制する。
論文 参考訳(メタデータ) (2022-09-07T20:30:06Z) - Self-Supervised Image Representation Learning with Geometric Set
Consistency [50.12720780102395]
本稿では,3次元幾何整合性に基づく自己教師付き画像表現学習法を提案する。
具体的には、画像ビュー内の特徴整合性を強化するために、コントラスト学習フレームワークに3次元幾何学的整合性を導入する。
論文 参考訳(メタデータ) (2022-03-29T08:57:33Z) - Ablation study of self-supervised learning for image classification [0.0]
このプロジェクトは、画像認識のタスクのための畳み込みニューラルネットワーク(CNN)とトランスフォーマーネットワークの自己教師型トレーニングに焦点を当てている。
同じソース画像からの2つの拡張変換画像の類似性を最大化するために、異なるバックボーンを持つ単純なシアムネットワークを使用する。
論文 参考訳(メタデータ) (2021-12-04T09:59:01Z) - Shelf-Supervised Mesh Prediction in the Wild [54.01373263260449]
本研究では,物体の3次元形状とポーズを1つの画像から推定する学習手法を提案する。
まず、カメラのポーズとともに、標準フレーム内の体積表現を推定する。
粗い体積予測はメッシュベースの表現に変換され、予測されたカメラフレームでさらに洗練される。
論文 参考訳(メタデータ) (2021-02-11T18:57:10Z) - Unsupervised Learning of Landmarks based on Inter-Intra Subject
Consistencies [72.67344725725961]
本稿では,物体間ランドマーク成分を顔画像に組み込むことにより,画像ランドマーク発見のための教師なし学習手法を提案する。
これは、補助的な主題関連構造に基づいて、元の主題のランドマークを変換するオブジェクト間マッピングモジュールによって達成される。
変換された画像から元の被写体に戻るために、ランドマーク検出器は、対のオブジェクト内画像と対のオブジェクト間画像の両方に一貫した意味を含む空間的位置を学習せざるを得ない。
論文 参考訳(メタデータ) (2020-04-16T20:38:16Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。