論文の概要: Steering Vision-Language Pre-trained Models for Incremental Face Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2512.19022v2
- Date: Wed, 24 Dec 2025 07:36:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 13:34:31.944754
- Title: Steering Vision-Language Pre-trained Models for Incremental Face Presentation Attack Detection
- Title(参考訳): インクリメンタル顔提示検出のためのステアリングビジョンランゲージ事前訓練モデル
- Authors: Haoze Li, Jie Zhang, Guoying Zhao, Stephen Lin, Shiguang Shan,
- Abstract要約: 顔提示攻撃検出(PAD)は、スプーフィング戦術やドメインと戦うために漸進的な学習を要求する。
過去のデータ保持を禁止し、リハーサルフリーラーニング(RF-IL)を必要とするプライバシー規制
- 参考スコア(独自算出の注目度): 62.89126207012712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face Presentation Attack Detection (PAD) demands incremental learning (IL) to combat evolving spoofing tactics and domains. Privacy regulations, however, forbid retaining past data, necessitating rehearsal-free IL (RF-IL). Vision-Language Pre-trained (VLP) models, with their prompt-tunable cross-modal representations, enable efficient adaptation to new spoofing styles and domains. Capitalizing on this strength, we propose \textbf{SVLP-IL}, a VLP-based RF-IL framework that balances stability and plasticity via \textit{Multi-Aspect Prompting} (MAP) and \textit{Selective Elastic Weight Consolidation} (SEWC). MAP isolates domain dependencies, enhances distribution-shift sensitivity, and mitigates forgetting by jointly exploiting universal and domain-specific cues. SEWC selectively preserves critical weights from previous tasks, retaining essential knowledge while allowing flexibility for new adaptations. Comprehensive experiments across multiple PAD benchmarks show that SVLP-IL significantly reduces catastrophic forgetting and enhances performance on unseen domains. SVLP-IL offers a privacy-compliant, practical solution for robust lifelong PAD deployment in RF-IL settings.
- Abstract(参考訳): 顔提示攻撃検出(PAD)は、進化するスプーフィング戦術やドメインと戦うためにインクリメンタルラーニング(IL)を要求する。
しかし、プライバシー規制は過去のデータを保持することを禁じ、リハーサルのないIL(RF-IL)を必要とする。
Vision-Language Pre-trained (VLP)モデルは、そのプロンプト可能なクロスモーダル表現により、新しいスプーフィングスタイルやドメインへの効率的な適応を可能にする。
この強度を活かして、安定性と可塑性のバランスをとるVLPベースのRF-ILフレームワークである \textbf{SVLP-IL} と \textit{Multi-Aspect Prompting} (MAP) と \textit{Selective Elastic Weight Consolidation} (SEWC) を提案する。
MAPは、ドメイン依存を分離し、分布シフト感受性を高め、普遍的およびドメイン固有の手がかりを共同で活用することによって忘れを緩和する。
SEWCは、以前のタスクから重要な重みを選択的に保存し、新しい適応に柔軟性を持たせながら本質的な知識を保持する。
複数のPADベンチマークの総合的な実験により、SVLP-ILは破滅的な忘れ込みを著しく減らし、目に見えない領域の性能を高めることが示されている。
SVLP-ILは、RF-IL設定で堅牢なPADデプロイメントを実現するための、プライバシに準拠した実用的なソリューションを提供する。
関連論文リスト
- SCALE: Upscaled Continual Learning of Large Language Models [15.0007740485038]
事前学習した全てのパラメータを凍結しながら、線形モジュールへの軽量な拡張を挿入する幅アップスケーリングアーキテクチャを導入する。
これにより、残余と注意のトポロジが保たれ、ベースモデルの本来の機能を乱すことなくキャパシティが向上する。
対応解析は、保存が確実に保持されるときと、保存と適応の相互作用が最適化を安定化させる理由を明らかにする。
論文 参考訳(メタデータ) (2025-11-05T08:05:50Z) - SSVD: Structured SVD for Parameter-Efficient Fine-Tuning and Benchmarking under Domain Shift in ASR [65.90944188787786]
ローランク適応(LoRA)は、音声アプリケーションで広く使われているが、VeRA、DoRA、PiSSA、SVFTといった最先端の変種は、主に言語や視覚タスクのために開発されており、音声による検証は限られている。
本研究は,これらのPEFTメソッドをESPnet内での総合的な統合とベンチマークを行う。
本研究では、0.1Bから2Bまでのモデルスケールで、幼児の発話や方言の変化を含むドメインシフト音声認識タスクに関するすべての手法を評価する。
論文 参考訳(メタデータ) (2025-09-02T20:51:17Z) - Advancing Reliable Test-Time Adaptation of Vision-Language Models under Visual Variations [67.35596444651037]
視覚言語モデル(VLM)は、素晴らしいゼロショット機能を示すが、ラベル付きデータが利用できない場合、下流タスクの分散シフトに苦慮する。
本稿では,信頼性を両面から高めるReliable Test-Time Adaptation (ReTA)法を提案する。
論文 参考訳(メタデータ) (2025-07-13T05:37:33Z) - Global Variational Inference Enhanced Robust Domain Adaptation [7.414646586981638]
本稿では,構造を意識したクロスドメインアライメントを実現するために,変分推論による連続的,クラス条件のグローバルな事前学習フレームワークを提案する。
GVI-DAは、潜在特徴再構成によるドメインギャップを最小化し、ランダムサンプリングによるグローバルコードブック学習を用いて後部崩壊を緩和する。
低信頼の擬似ラベルを捨て、信頼性の高いターゲットドメインサンプルを生成することにより、ロバスト性をさらに向上する。
論文 参考訳(メタデータ) (2025-07-04T04:43:23Z) - Generalized Incremental Learning under Concept Drift across Evolving Data Streams [32.62505920071586]
実世界のデータストリームは、概念の漂流を特徴とする固有の非定常性を示し、適応学習システムにとって重要な課題となっている。
我々は,GILCD (Generalized Incremental Learning under Concept Drift) を定式化し,オープン環境ストリーミング環境における分布空間とラベル空間の連成進化を特徴付ける。
本稿では,新しいプロトタイプをベース表現と融合させ,新しいクラス識別を安定的に実現するCalibrated Source-Free Adaptation (CSFA)を提案する。
論文 参考訳(メタデータ) (2025-06-06T04:36:24Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - FLIP: Cross-domain Face Anti-spoofing with Language Guidance [19.957293190322332]
Face Anti-Spoofing (FAS) またはプレゼンテーションアタック検出は、顔認識システムにおいて不可欠な要素である。
最近の視覚変換器(ViT)モデルはFASタスクに有効であることが示されている。
本稿では、自然言語の助けを借りて視覚表現を基盤とした、堅牢なドメイン間FASのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-28T17:53:20Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。