論文の概要: Domain Private and Agnostic Feature for Modality Adaptive Face
Recognition
- arxiv url: http://arxiv.org/abs/2008.03848v1
- Date: Mon, 10 Aug 2020 00:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:56:40.997682
- Title: Domain Private and Agnostic Feature for Modality Adaptive Face
Recognition
- Title(参考訳): モダリティ適応型顔認識のためのドメインプライベート・アグノスティックな特徴
- Authors: Yingguo Xu, Lei Zhang, Qingyan Duan
- Abstract要約: 本稿では,不整合表現モジュール(DRM),特徴融合モジュール(FFM),計量ペナルティ学習セッションを含む特徴集約ネットワーク(FAN)を提案する。
第一に、DRMでは、ドメインに依存しないネットワークとドメインに依存しないネットワークという2つのワークは、モダリティの特徴とアイデンティティの特徴を学習するために特別に設計されている。
第2に、FFMでは、ID特徴をドメイン特徴と融合させて、双方向の双方向ID特徴変換を実現する。
第3に、容易なペアとハードペアの分布不均衡がクロスモーダルデータセットに存在することを考えると、適応性のあるID保存計量学習が可能である。
- 参考スコア(独自算出の注目度): 10.497190559654245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous face recognition is a challenging task due to the large
modality discrepancy and insufficient cross-modal samples. Most existing works
focus on discriminative feature transformation, metric learning and cross-modal
face synthesis. However, the fact that cross-modal faces are always coupled by
domain (modality) and identity information has received little attention.
Therefore, how to learn and utilize the domain-private feature and
domain-agnostic feature for modality adaptive face recognition is the focus of
this work. Specifically, this paper proposes a Feature Aggregation Network
(FAN), which includes disentangled representation module (DRM), feature fusion
module (FFM) and adaptive penalty metric (APM) learning session. First, in DRM,
two subnetworks, i.e. domain-private network and domain-agnostic network are
specially designed for learning modality features and identity features,
respectively. Second, in FFM, the identity features are fused with domain
features to achieve cross-modal bi-directional identity feature transformation,
which, to a large extent, further disentangles the modality information and
identity information. Third, considering that the distribution imbalance
between easy and hard pairs exists in cross-modal datasets, which increases the
risk of model bias, the identity preserving guided metric learning with
adaptive hard pairs penalization is proposed in our FAN. The proposed APM also
guarantees the cross-modality intra-class compactness and inter-class
separation. Extensive experiments on benchmark cross-modal face datasets show
that our FAN outperforms SOTA methods.
- Abstract(参考訳): 不均質な顔認識は、大きなモダリティの相違と不十分なクロスモーダルなサンプルのために難しい課題である。
既存の作品の多くは、識別的特徴変換、メトリック学習、クロスモーダル顔合成に焦点を当てている。
しかし, クロスモーダルな面が常にドメイン(モダリティ)によって結合されているという事実や, アイデンティティ情報はほとんど注目されていない。
したがって、この研究の焦点は、ドメインに依存しない特徴とドメインに依存しない特徴の学習と利用方法である。
具体的には,不整合表現モジュール(DRM),特徴融合モジュール(FFM),適応的ペナルティメトリック(APM)学習セッションを含む特徴集約ネットワーク(FAN)を提案する。
まず、drmでは、ドメインプライベートネットワークとドメイン非依存ネットワークという2つのサブネットワークが、それぞれモダリティ機能とアイデンティティ機能を学ぶために特別に設計されている。
第二に、FFMでは、アイデンティティ特徴をドメイン特徴と融合させて、双方向の双方向なアイデンティティ特徴変換を実現する。
第3に, 容易対とハード対の分布の不均衡が, モデルバイアスのリスクを増大させるクロスモーダルデータセットに存在することを考慮し, 適応ハード対ペナリゼーションを用いた誘導型メトリック学習のアイデンティティーを提案する。
提案するapmはクラス内コンパクト性とクラス間分離を保証している。
ベンチマーク・クロスモーダル・フェイス・データセットの大規模な実験により、我々のFANはSOTA法より優れていることが示された。
関連論文リスト
- Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Modality Unifying Network for Visible-Infrared Person Re-Identification [24.186989535051623]
Visible-infrared person re-identification (VI-ReID) は、異種間の大きな相違とクラス内変異のために難しい課題である。
既存の手法は主に、異なるモダリティを同じ特徴空間に埋め込むことで、モダリティ共有表現を学習することに焦点を当てている。
そこで我々は,VI-ReID の頑健な補助モダリティを探索するために,新しいモダリティ統一ネットワーク (MUN) を提案する。
論文 参考訳(メタデータ) (2023-09-12T14:22:22Z) - Learning Cross-modality Information Bottleneck Representation for
Heterogeneous Person Re-Identification [61.49219876388174]
Visible-Infrared person re-identification (VI-ReID)は、インテリジェントビデオ監視において重要かつ困難な課題である。
既存の手法は主に共有特徴空間の学習に重点を置いており、可視光と赤外光の相違を減らす。
本稿では,新しい相互情報・モダリティコンセンサスネットワーク,すなわちCMInfoNetを提案し,モダリティ不変な同一性の特徴を抽出する。
論文 参考訳(メタデータ) (2023-08-29T06:55:42Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - CLIP-Driven Fine-grained Text-Image Person Re-identification [50.94827165464813]
TIReIDは、候補画像のプールから与えられたテキストクエリに対応する画像を取得することを目的としている。
TIReIDにおけるCLIPの強力な知識をフル活用するための,CLIP駆動のきめ細かい情報抽出フレームワーク(CFine)を提案する。
論文 参考訳(メタデータ) (2022-10-19T03:43:12Z) - A cross-modal fusion network based on self-attention and residual
structure for multimodal emotion recognition [7.80238628278552]
マルチモーダル感情認識のための自己注意構造と残像構造(CFN-SR)に基づく新たなクロスモーダル融合ネットワークを提案する。
提案手法の有効性を検証するため,RAVDESSデータセットを用いて実験を行った。
実験結果から,提案したCFN-SRは最先端技術を実現し,精度が75.76%,パラメータが26.30Mであることが確認された。
論文 参考訳(メタデータ) (2021-11-03T12:24:03Z) - MSO: Multi-Feature Space Joint Optimization Network for RGB-Infrared
Person Re-Identification [35.97494894205023]
RGB-infrared cross-modality person re-identification (ReID) タスクは、可視モダリティと赤外線モダリティの同一性の画像を認識することを目的としている。
既存の手法は主に2ストリームアーキテクチャを使用して、最終的な共通特徴空間における2つのモード間の相違を取り除く。
単一モダリティ空間と共通空間の両方において、モダリティ調和可能な特徴を学習できる新しい多機能空間共同最適化(MSO)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-21T16:45:23Z) - CMTR: Cross-modality Transformer for Visible-infrared Person
Re-identification [38.96033760300123]
可視赤外人物再識別のための相互モダリティトランスフォーマー法(CMTR)
我々は,モダリティの情報をエンコードするために,トークン埋め込みと融合した新しいモダリティ埋め込みを設計する。
提案するCMTRモデルの性能は,既存のCNN方式をはるかに上回っている。
論文 参考訳(メタデータ) (2021-10-18T03:12:59Z) - Exploring Modality-shared Appearance Features and Modality-invariant
Relation Features for Cross-modality Person Re-Identification [72.95858515157603]
クロスモダリティの人物再識別作業は、識別モダリティ共有機能に依存する。
初期の成功にもかかわらず、このようなモダリティ共有の外観機能は十分なモダリティ不変情報をキャプチャできない。
クロスモダリティの変動をさらに低減するために、新しいクロスモダリティ四重極損失が提案される。
論文 参考訳(メタデータ) (2021-04-23T11:14:07Z) - DF^2AM: Dual-level Feature Fusion and Affinity Modeling for RGB-Infrared
Cross-modality Person Re-identification [18.152310122348393]
RGB-赤外線による人物再識別は、クラス内変異とモダリティの相違が原因で難しい課題である。
我々は,局所的・グローバル的特徴融合(df2)モジュールを,局所的特徴とグローバル的特徴の区別に着目して提案する。
人物画像からグローバルな特徴間の関係をさらに掘り下げるために,親和性モデリング(AM)モジュールを提案する。
論文 参考訳(メタデータ) (2021-04-01T03:12:56Z) - Cross-modality Person re-identification with Shared-Specific Feature
Transfer [112.60513494602337]
クロスモダリティの人物再識別(cm-ReID)は、インテリジェントビデオ分析において難しいが重要な技術である。
モーダリティ共有型特徴伝達アルゴリズム (cm-SSFT) を提案し, モーダリティ共有型情報とモーダリティ固有特性の両方のポテンシャルについて検討する。
論文 参考訳(メタデータ) (2020-02-28T00:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。