論文の概要: Foundation versus Domain-specific Models: Performance Comparison, Fusion, and Explainability in Face Recognition
- arxiv url: http://arxiv.org/abs/2507.03541v2
- Date: Fri, 08 Aug 2025 21:43:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 16:55:53.369257
- Title: Foundation versus Domain-specific Models: Performance Comparison, Fusion, and Explainability in Face Recognition
- Title(参考訳): ファウンデーション対ドメイン固有モデル:顔認識における性能比較、融合、説明可能性
- Authors: Redwan Sony, Parisa Farmanifard, Arun Ross, Anil K. Jain,
- Abstract要約: すべての顔ベンチマークデータセットでは、ドメイン固有のモデルはゼロショット基礎モデルよりも優れていた。
ファウンデーションモデルとドメイン固有の顔認識モデルとの単純なスコアレベル融合により、偽マッチング率の低い精度が向上した。
GPT-4oやGrok-4のような基礎モデルは、顔認識パイプラインに説明可能性を提供することができる。
- 参考スコア(独自算出の注目度): 23.062479287841878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the following question: How do generic foundation models (e.g., CLIP, BLIP, GPT-4o, Grok-4) compare against a domain-specific face recognition model (viz., AdaFace or ArcFace) on the face recognition task? Through a series of experiments involving several foundation models and benchmark datasets, we report the following findings: (a) In all face benchmark datasets considered, domain-specific models outperformed zero-shot foundation models. (b) The performance of zero-shot generic foundation models improved on over-segmented face images compared to tightly cropped faces, thereby suggesting the importance of contextual clues. (c) A simple score-level fusion of a foundation model with a domain-specific face recognition model improved the accuracy at low false match rates. (d) Foundation models, such as GPT-4o and Grok-4, are able to provide explainability to the face recognition pipeline. In some instances, foundation models are even able to resolve low-confidence decisions made by AdaFace, thereby reiterating the importance of combining domain-specific face recognition models with generic foundation models in a judicious manner.
- Abstract(参考訳): 本稿では、一般的な基礎モデル(例えば、CLIP、BLIP、GPT-4o、Grok-4)は、顔認識タスクにおいて、ドメイン固有の顔認識モデル(viz、AdaFace、ArcFace)と比較するにはどうすればよいか?
いくつかの基礎モデルとベンチマークデータセットを含む一連の実験を通じて、以下の結果が報告されている。
(a)すべての顔ベンチマークデータセットでは、ドメイン固有のモデルはゼロショット基礎モデルよりも優れていた。
b) ゼロショット・ジェネリック・ファンデーション・モデルの性能は, 密集した顔に比べて, 過剰な部分の顔画像で向上し, 文脈的手がかりの重要性が示唆された。
(c) ファウンデーションモデルとドメイン固有顔認証モデルとの単純なスコアレベル融合により, 偽一致率の低い精度が向上した。
(d)GPT-4oやGrok-4のような基礎モデルは、顔認識パイプラインに説明可能性を提供することができる。
ファウンデーションモデルは、AdaFaceによる低信頼の判断を解決できるため、ドメイン固有の顔認識モデルと一般的なファウンデーションモデルを組み合わせることの重要性を再主張する場合もある。
関連論文リスト
- VariFace: Fair and Diverse Synthetic Dataset Generation for Face Recognition [4.409387706050884]
VariFaceは2段階の拡散に基づくパイプラインで、公正で多様な合成顔データセットを作成し、顔認識モデルをトレーニングする。
同じデータセットサイズに制約された場合、VariFaceは、以前の合成データセットよりも大幅にパフォーマンスが向上する。
VariFaceは6つの評価データセットで実際のデータセット(CASIA-WebFace)を上回った。
論文 参考訳(メタデータ) (2024-12-09T06:21:11Z) - FRoundation: Are Foundation Models Ready for Face Recognition? [8.045296450065019]
ファウンデーションモデルが特定の顔認識領域(FR)に適しているかを検討する。
合成データを含むデータ可用性の異なるレベルにまたがって、これらのモデルのFRへの適用を提案、実証する。
この結果から, 汎用性にもかかわらず, 事前学習された基礎モデルは, この課題に特化して訓練された類似アーキテクチャと比較すると, FRにおいて性能が劣る傾向が示唆された。
論文 参考訳(メタデータ) (2024-10-31T11:21:21Z) - Arc2Face: A Foundation Model for ID-Consistent Human Faces [95.00331107591859]
Arc2Faceは、ID条件のフェイスファンデーションモデルである。
既存のモデルと無矛盾の顔類似度で、多様なフォトリアリスティック画像を生成することができる。
論文 参考訳(メタデータ) (2024-03-18T10:32:51Z) - NIR-to-VIS Face Recognition via Embedding Relations and Coordinates of
the Pairwise Features [5.044100238869375]
顔認識モデルに簡単に追加可能な'Relation Module'を提案する。
顔画像から抽出された局所特徴は、顔の各成分の情報を含む。
提案モジュールでは14.81%のランク-1精度と15.47%の検証率で0.1%のFAR改善を実現した。
論文 参考訳(メタデータ) (2022-08-04T02:53:44Z) - Blind Face Restoration: Benchmark Datasets and a Baseline Model [63.053331687284064]
Blind Face Restoration (BFR) は、対応する低品質 (LQ) 入力から高品質 (HQ) の顔画像を構築することを目的としている。
EDFace-Celeb-1M (BFR128) と EDFace-Celeb-150K (BFR512) と呼ばれる2つのブラインドフェイス復元ベンチマークデータセットを最初に合成する。
最先端の手法は、ブラー、ノイズ、低解像度、JPEG圧縮アーティファクト、それらの組み合わせ(完全な劣化)の5つの設定でベンチマークされる。
論文 参考訳(メタデータ) (2022-06-08T06:34:24Z) - FedFace: Collaborative Learning of Face Recognition Model [66.84737075622421]
FedFaceは顔認識モデルの協調学習のためのフレームワークである。
各クライアントに格納された顔画像が、他のクライアントや中央ホストと共有されない、正確で汎用的な顔認識モデルを学ぶ。
コードとトレーニング済みモデルは公開される予定です。
論文 参考訳(メタデータ) (2021-04-07T09:25:32Z) - Multi-Margin based Decorrelation Learning for Heterogeneous Face
Recognition [90.26023388850771]
本稿では,超球面空間におけるデコリレーション表現を抽出するディープニューラルネットワーク手法を提案する。
提案するフレームワークは,不均一表現ネットワークとデコリレーション表現学習の2つのコンポーネントに分けることができる。
2つの難解な異種顔データベースに対する実験結果から,本手法は検証タスクと認識タスクの両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-25T07:01:12Z) - Multi-Scale Thermal to Visible Face Verification via Attribute Guided
Synthesis [55.29770222566124]
可視画像から抽出した属性を用いて、熱画像から属性保存された可視画像を合成し、クロスモーダルマッチングを行う。
抽出した属性によって導かれる熱画像から可視像を合成するために, 新規なマルチスケールジェネレータを提案する。
事前訓練されたVGG-Faceネットワークを利用して、合成画像と入力可視画像から特徴を抽出し、検証を行う。
論文 参考訳(メタデータ) (2020-04-20T01:45:05Z) - Facial Attribute Capsules for Noise Face Super Resolution [86.55076473929965]
既存の顔超解像法(SR)は主に入力画像がノイズフリーであると仮定する。
本稿では,雑音の多い顔画像の高解像度化を実現するために,FACN(Facial Attribute Capsules Network)を提案する。
提案手法は,超低分解能(LR)ノイズフェース画像の超解像において,優れた幻覚効果を達成し,最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-02-16T06:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。