論文の概要: TransFIRA: Transfer Learning for Face Image Recognizability Assessment
- arxiv url: http://arxiv.org/abs/2510.06353v1
- Date: Tue, 07 Oct 2025 18:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.138321
- Title: TransFIRA: Transfer Learning for Face Image Recognizability Assessment
- Title(参考訳): TransFIRA: 顔画像認識性評価のためのトランスファー学習
- Authors: Allen Tu, Kartik Narayan, Joshua Gleason, Jennifer Xu, Matthew Meyn, Tom Goldstein, Vishal M. Patel,
- Abstract要約: TransFIRAは軽量でアノテーションのないフレームワークで、埋め込みスペースで直接認識できる。
顔以外の新しい拡張には、エンコーダで座屈した説明可能性があり、これは、劣化と被写体固有の要因が認識可能性にどのように影響するかを示す。
実験では、顔に対する最先端の結果、身体認識に対する強い堅牢性、およびデータセット間のシフトの下で確認された。
- 参考スコア(独自算出の注目度): 73.61309363885552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face recognition in unconstrained environments such as surveillance, video, and web imagery must contend with extreme variation in pose, blur, illumination, and occlusion, where conventional visual quality metrics fail to predict whether inputs are truly recognizable to the deployed encoder. Existing FIQA methods typically rely on visual heuristics, curated annotations, or computationally intensive generative pipelines, leaving their predictions detached from the encoder's decision geometry. We introduce TransFIRA (Transfer Learning for Face Image Recognizability Assessment), a lightweight and annotation-free framework that grounds recognizability directly in embedding space. TransFIRA delivers three advances: (i) a definition of recognizability via class-center similarity (CCS) and class-center angular separation (CCAS), yielding the first natural, decision-boundary--aligned criterion for filtering and weighting; (ii) a recognizability-informed aggregation strategy that achieves state-of-the-art verification accuracy on BRIAR and IJB-C while nearly doubling correlation with true recognizability, all without external labels, heuristics, or backbone-specific training; and (iii) new extensions beyond faces, including encoder-grounded explainability that reveals how degradations and subject-specific factors affect recognizability, and the first recognizability-aware body recognition assessment. Experiments confirm state-of-the-art results on faces, strong performance on body recognition, and robustness under cross-dataset shifts. Together, these contributions establish TransFIRA as a unified, geometry-driven framework for recognizability assessment -- encoder-specific, accurate, interpretable, and extensible across modalities -- significantly advancing FIQA in accuracy, explainability, and scope.
- Abstract(参考訳): 監視、ビデオ、ウェブ画像などの制約のない環境での顔認識は、ポーズ、ぼかし、照明、閉塞の極端な変化と競合しなくてはならない。
既存のFIQA法は通常、視覚的ヒューリスティック、キュレートされたアノテーション、あるいは計算集約的な生成パイプラインに依存しており、それらの予測はエンコーダの決定幾何学から切り離されている。
TransFIRA(Transfer Learning for Face Image Recognizability Assessment)は,組込み空間で直接認識しやすくするための軽量でアノテーションのないフレームワークである。
TransFIRAは3つの進歩を提供する。
一 分類中心類似性(CCS)及び分類中心角分離(CCAS)による認識可能性の定義であって、フィルタリング及び重み付けのための第一の自然的、決定的、整列的基準とする。
(二)BRIARとIJB-Cの最先端の精度を達成しつつ、真の認識可能性とほぼ相関を保ちつつ、外部ラベル、ヒューリスティックス、バックボーン固有のトレーニングを伴わない認識可能性向上戦略
三 顔以外の新たな拡張であって、被写体固有の要因の劣化が認識可能性にどのように影響するかを示すエンコーダによる説明可能性、及び、最初の認識可能性を考慮した身体認識評価を含む。
実験により、顔に対する最先端の結果、身体認識における強い性能、およびデータセット間のシフト下での堅牢性が確認された。
これらの貢献により、TransFIRAは、エンコーダ固有の、正確な、解釈可能な、拡張可能な、認識可能性の評価のための統一された幾何学駆動のフレームワークとして確立され、精度、説明可能性、スコープにおいてFIQAを大幅に進歩させる。
関連論文リスト
- HAMLET-FFD: Hierarchical Adaptive Multi-modal Learning Embeddings Transformation for Face Forgery Detection [6.060036926093259]
HAMLET-FFDは顔偽造検出のためのクロスドメイン一般化フレームワークである。
視覚的証拠と概念的手がかりを統合し、専門家の法医学的分析をエミュレートする。
HAMLET-FFDは設計上、外部プラグインとして機能する全ての事前訓練されたパラメータを凍結する。
論文 参考訳(メタデータ) (2025-07-28T15:09:52Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - Learning for Transductive Threshold Calibration in Open-World Recognition [83.35320675679122]
グラフニューラルネットワークを用いた高剛性と適応性を有するトランスダクティブしきい値キャリブレーション法であるOpenGCNを導入する。
オープンワールドの視覚認識ベンチマークにおける実験は、オープンワールドのしきい値校正のための既存のポストホック校正方法よりもOpenGCNの方が優れていることを検証する。
論文 参考訳(メタデータ) (2023-05-19T23:52:48Z) - CoReFace: Sample-Guided Contrastive Regularization for Deep Face
Recognition [3.1677775852317085]
特徴表現学習に画像レベルの正規化を適用するために,CoReFace(Contrastive Regularization for Face Recognition)を提案する。
具体的には、サンプル誘導型コントラスト学習を用いて、画像と画像の関係を直接調整する。
コントラスト学習を顔認識に統合するため,画像の画質劣化を回避するために,画像の代わりに埋め込みを拡大する。
論文 参考訳(メタデータ) (2023-04-23T14:33:24Z) - A Bidirectional Conversion Network for Cross-Spectral Face Recognition [1.9766522384767227]
可視光画像と赤外線画像との劇的な違いにより、スペクトル間顔認識は困難である。
本稿では,異種顔画像間の双方向クロススペクトル変換(BCSC-GAN)の枠組みを提案する。
ネットワークは、スペクトル間認識問題をスペクトル内問題に還元し、双方向情報を融合することで性能を向上させる。
論文 参考訳(メタデータ) (2022-05-03T16:20:10Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z) - Heterogeneous Visible-Thermal and Visible-Infrared Face Recognition
using Unit-Class Loss and Cross-Modality Discriminator [0.43748379918040853]
本稿では,クロスモーダル顔認識のためのエンドツーエンドフレームワークを提案する。
モダリティ情報を捨てつつアイデンティティ情報を保存するために,新しい単位クラス損失を提案する。
提案したネットワークは、モダリティ非依存のベクトル表現を抽出したり、テスト画像のマッチングペア分類に利用できる。
論文 参考訳(メタデータ) (2021-11-29T06:14:00Z) - Harnessing Unrecognizable Faces for Face Recognition [87.80037162457427]
本稿では,顔画像の認識可能性の尺度を提案し,主に認識可能なアイデンティティを用いて訓練されたディープニューラルネットワークによって実現された。
FAR=1e-5において,認識可能性を考慮した場合,単画像認識の誤り率を58%減少させることを示す。
論文 参考訳(メタデータ) (2021-06-08T05:25:03Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。