論文の概要: ViTNT-FIQA: Training-Free Face Image Quality Assessment with Vision Transformers
- arxiv url: http://arxiv.org/abs/2601.05741v1
- Date: Fri, 09 Jan 2026 11:46:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.960042
- Title: ViTNT-FIQA: Training-Free Face Image Quality Assessment with Vision Transformers
- Title(参考訳): ViTNT-FIQA:視覚変換器による無訓練顔画像品質評価
- Authors: Guray Ozgur, Eduarda Caldeira, Tahar Chettaoui, Jan Niklas Kolf, Marco Huber, Naser Damer, Fadi Boutros,
- Abstract要約: ViTNT-FIQAは、中間的なVision Transformerブロック間のパッチ埋め込み進化の安定性を測定する、トレーニング不要のアプローチである。
本稿では,L2正規化パッチ埋め込み間のユークリッド距離を逐次変圧器ブロックから計算し,それらを画像レベルの品質スコアに集約する。
ViTNT-FIQAは,任意のトレーニング済みのViTベースの顔認識モデルに対して,計算効率と即時適用性を保ちながら,最先端手法との競合性能を実現する。
- 参考スコア(独自算出の注目度): 19.115807754135094
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Face Image Quality Assessment (FIQA) is essential for reliable face recognition systems. Current approaches primarily exploit only final-layer representations, while training-free methods require multiple forward passes or backpropagation. We propose ViTNT-FIQA, a training-free approach that measures the stability of patch embedding evolution across intermediate Vision Transformer (ViT) blocks. We demonstrate that high-quality face images exhibit stable feature refinement trajectories across blocks, while degraded images show erratic transformations. Our method computes Euclidean distances between L2-normalized patch embeddings from consecutive transformer blocks and aggregates them into image-level quality scores. We empirically validate this correlation on a quality-labeled synthetic dataset with controlled degradation levels. Unlike existing training-free approaches, ViTNT-FIQA requires only a single forward pass without backpropagation or architectural modifications. Through extensive evaluation on eight benchmarks (LFW, AgeDB-30, CFP-FP, CALFW, Adience, CPLFW, XQLFW, IJB-C), we show that ViTNT-FIQA achieves competitive performance with state-of-the-art methods while maintaining computational efficiency and immediate applicability to any pre-trained ViT-based face recognition model.
- Abstract(参考訳): 顔画像品質評価(FIQA)は、信頼性の高い顔認識システムに不可欠である。
現在のアプローチは、主に最終層表現のみを利用するが、トレーニング不要なメソッドでは、複数のフォワードパスやバックプロパゲーションが必要になる。
中間視覚変換器(ViT)ブロック間のパッチ埋め込み進化の安定性を計測するトレーニングフリーアプローチであるViTNT-FIQAを提案する。
本研究では,高画質の顔画像がブロック間に安定な特徴改善軌道を示すのに対し,劣化した画像は不規則な変換を示すことを示した。
本稿では,L2正規化パッチ埋め込み間のユークリッド距離を逐次変圧器ブロックから計算し,それらを画像レベルの品質スコアに集約する。
本研究では, 品質ラベル付き合成データセットを用いて, 劣化レベルを制御した相関関係を実験的に検証した。
既存のトレーニングフリーのアプローチとは異なり、ViTNT-FIQAはバックプロパゲーションやアーキテクチャの変更なしに1つのフォワードパスしか必要としない。
8つのベンチマーク(LFW, AgeDB-30, CFP-FP, CALFW, Adience, CPLFW, XQLFW, IJB-C)を広範囲に評価することにより,ViTNT-FIQAは,任意のトレーニング済みのViTベースの顔認識モデルに対して,計算効率と即時適用性を保ちながら,最先端の手法との競合性能を実現することを示す。
関連論文リスト
- Continual Action Quality Assessment via Adaptive Manifold-Aligned Graph Regularization [53.82400605816587]
アクション品質アセスメント(AQA)は、ビデオにおける人間の行動を定量化し、スポーツスコアリング、リハビリテーション、スキル評価の応用を支援する。
大きな課題は、現実世界のシナリオにおける品質分布の非定常的な性質にある。
本稿では,進化する分布を扱うための連続学習機能を備えた連続AQA(Continuous AQA)を紹介する。
論文 参考訳(メタデータ) (2025-10-08T10:09:47Z) - ViT-FIQA: Assessing Face Image Quality using Vision Transformers [18.848638277203616]
顔画像品質評価(FIQA)は、顔認識(FR)システムにおける顔画像の有用性を予測することを目的としている。
ViT-FIQAは、学習可能なクオリティトークンを通じてFRに最適化された標準のViTバックボーンを拡張する新しいアプローチである。
挑戦的なベンチマークとCNNとViTベースのアーキテクチャを含むいくつかのFRモデルの実験は、ViT-FIQAが一貫してトップレベルのパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-08-19T15:50:07Z) - DSL-FIQA: Assessing Facial Image Quality via Dual-Set Degradation Learning and Landmark-Guided Transformer [23.70791030264281]
Generic Face Image Quality Assessment (GFIQA) は、顔画像の知覚的品質を評価する。
本稿では,GFIQAのトランスフォーマーに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T23:11:25Z) - DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [73.6767681305851]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - GraFIQs: Face Image Quality Assessment Using Gradient Magnitudes [9.170455788675836]
顔画像品質評価(FIQA)は、顔認識(FR)システムにおける顔画像の有用性を推定する。
本研究では,事前学習したFRモデルの重量変化を検査し,顔画像の品質を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-18T14:07:08Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。