論文の概要: Exploring Task-Solving Paradigm for Generalized Cross-Domain Face Anti-Spoofing via Reinforcement Fine-Tuning
- arxiv url: http://arxiv.org/abs/2506.21895v1
- Date: Fri, 27 Jun 2025 04:28:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.081812
- Title: Exploring Task-Solving Paradigm for Generalized Cross-Domain Face Anti-Spoofing via Reinforcement Fine-Tuning
- Title(参考訳): 強化ファインチューニングによる汎用クロスドメイン顔アンチスプーフィングのためのタスクソルビングパラダイムの探索
- Authors: Fangling Jiang, Qi Li, Weining Wang, Gang Wang, Bing Liu, Zhenan Sun,
- Abstract要約: 本稿では, ファインチューニングによる顔の偽造防止手法を提案する。
マルチモーダルな大規模言語モデルの能力を刺激し、アンチ・スプーフィング・タスク自体の解決方法を学ぶ。
これは、不明なターゲットドメインにおける多様な未知の攻撃タイプを一般化し、その真正性決定の解釈可能な推論を提供する。
- 参考スコア(独自算出の注目度): 44.37716962053431
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently the emergence of novel presentation attacks has drawn increasing attention to face anti-spoofing. However, existing methods tend to memorize data patterns from the training set, resulting in poor generalization to unknown attack types across different scenarios and limited interpretability. To address these challenges, this paper presents a reinforcement fine-tuning-based face anti-spoofing method that stimulates the capabilities of multimodal large language models to think and learn how to solve the anti-spoofing task itself, rather than relying on the memorization of authenticity patterns. We design verifiable class consistent reward and reasoning consistent reward, and employ a GRPO-based optimization strategy to guide the model in exploring reasoning policies from multiple perspectives to maximize expected rewards. As a result, through iterative trial-and-error learning while retaining only high-reward trajectories, the model distills highly generalizable decision-making rules from the extensive solution space to effectively address cross-domain face anti-spoofing tasks. Extensive experimental results demonstrate that our method achieves state-of-the-art cross-domain generalization performance. It generalizes well to diverse unknown attack types in unseen target domains while providing interpretable reasoning for its authenticity decisions without requiring labor-intensive textual annotations for training.
- Abstract(参考訳): 近年、新しいプレゼンテーション攻撃が出現し、反偽造に注目が集まっている。
しかし、既存の手法ではトレーニングセットからデータパターンを記憶する傾向があるため、さまざまなシナリオにわたる未知の攻撃タイプへの一般化が貧弱になり、解釈可能性も制限される。
これらの課題に対処するために,本論文では,マルチモーダルな大規模言語モデルが,真正性パターンの記憶に頼るのではなく,アンチスプーフィングタスク自体をどう解決するかを考え,学習する能力を刺激する,強化された微調整による顔アンチスプーフィング手法を提案する。
検証可能なクラス一貫した報酬と推論一貫した報酬を設計し、GRPOに基づく最適化戦略を用いて、複数の視点から推論ポリシーを探索し、期待される報酬を最大化する。
その結果、反復的試行錯誤学習により、高次軌道のみを保持しながら、広範囲な解空間から非常に一般化可能な決定ルールを抽出し、クロスドメインの対面反偽造問題に効果的に対処する。
実験結果から,本手法が最先端のクロスドメイン一般化性能を実現することを示す。
トレーニングのために、労働集約的なテキストアノテーションを必要とせずに、その真正性決定の解釈可能な推論を提供しながら、目に見えないターゲットドメインにおける多様な未知の攻撃タイプを一般化する。
関連論文リスト
- Task-Agnostic Attacks Against Vision Foundation Models [12.487589700031661]
機械学習の実践者が利用可能なトレーニング済みのビジョン基礎モデルを採用するのが、標準のプラクティスになっている。
このような基盤モデルに対する攻撃の研究と、複数の下流タスクに対するその影響は、いまだに明らかにされていない。
本研究は,基本モデルを用いて得られた特徴表現を極大に破壊することにより,タスク非依存の敵例を定式化する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T19:15:14Z) - Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - Unlearning Backdoor Attacks through Gradient-Based Model Pruning [10.801476967873173]
本研究では,その軽減を未学習課題として扱うことによって,バックドア攻撃に対抗する新しい手法を提案する。
このアプローチは単純さと有効性を提供し、データ可用性に制限のあるシナリオに適しています。
論文 参考訳(メタデータ) (2024-05-07T00:36:56Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Contrastive Pseudo Learning for Open-World DeepFake Attribution [67.58954345538547]
オープンワールド・ディープフェイク (OW-DFA) と呼ばれる新しいベンチマークを導入する。
OW-DFAタスクにおけるコントラスト擬似学習(Contrastive Pseudo Learning, CPL)と呼ばれる新しいフレームワークを提案する。1)グローバル・ローカル投票モジュールを導入し、異なる操作領域の偽顔の特徴的アライメントを誘導し、2)信頼に基づくソフト擬似ラベル戦略を設計し、類似の手法による非ラベル集合における擬似雑音の軽減を図る。
論文 参考訳(メタデータ) (2023-09-20T08:29:22Z) - Randomized Adversarial Style Perturbations for Domain Generalization [49.888364462991234]
本稿では,RASP(Randomized Adversarial Style Perturbation)と呼ばれる新しい領域一般化手法を提案する。
提案アルゴリズムは, ランダムに選択されたクラスに対して, 対角方向の特徴のスタイルを乱し, 予期せぬ対象領域で観測される予期せぬスタイルに誤解されないよう, モデルを学習させる。
提案アルゴリズムは,様々なベンチマークによる広範な実験により評価され,特に大規模ベンチマークにおいて,領域一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2023-04-04T17:07:06Z) - Generalized Face Anti-Spoofing via Multi-Task Learning and One-Side Meta
Triplet Loss [12.829618913069567]
本稿では, 深度推定, 顔解析, ライブ・スプーフ分類という3つの課題からなる, 汎用的な顔のアンチ・スプーフ・フレームワークを提案する。
4つの公開データセットの実験では、提案されたフレームワークとトレーニング戦略が、未確認領域へのモデル一般化の以前の作業よりも効果的であることが示されている。
論文 参考訳(メタデータ) (2022-11-29T06:28:00Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。