論文の概要: Deepfake detectors are DUMB: A benchmark to assess adversarial training robustness under transferability constraints
- arxiv url: http://arxiv.org/abs/2601.05986v1
- Date: Fri, 09 Jan 2026 18:06:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:50.064342
- Title: Deepfake detectors are DUMB: A benchmark to assess adversarial training robustness under transferability constraints
- Title(参考訳): ディープフェイク検出器はDUMBであり、転送可能性制約下での対向的トレーニングロバスト性を評価するためのベンチマーク
- Authors: Adrian Serrano, Erwan Umlil, Ronan Thomas,
- Abstract要約: DUMB -- データセットのsoUrces、モデルアーキテクチャと Balance - と DUMBer メソッドを拡張して、ディープフェイク検出を行います。
我々は、転送可能性制約およびデータセット構成の下での敵攻撃に対するロバストネス検出器の評価を行った。
実験により, 対人訓練戦略は, 流通事例の堅牢性を高めるが, 採用戦略によっては, クロスデータセット構成下での分解も可能であることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfake detection systems deployed in real-world environments are subject to adversaries capable of crafting imperceptible perturbations that degrade model performance. While adversarial training is a widely adopted defense, its effectiveness under realistic conditions -- where attackers operate with limited knowledge and mismatched data distributions - remains underexplored. In this work, we extend the DUMB -- Dataset soUrces, Model architecture and Balance - and DUMBer methodology to deepfake detection. We evaluate detectors robustness against adversarial attacks under transferability constraints and cross-dataset configuration to extract real-world insights. Our study spans five state-of-the-art detectors (RECCE, SRM, XCeption, UCF, SPSL), three attacks (PGD, FGSM, FPBA), and two datasets (FaceForensics++ and Celeb-DF-V2). We analyze both attacker and defender perspectives mapping results to mismatch scenarios. Experiments show that adversarial training strategies reinforce robustness in the in-distribution cases but can also degrade it under cross-dataset configuration depending on the strategy adopted. These findings highlight the need for case-aware defense strategies in real-world applications exposed to adversarial attacks.
- Abstract(参考訳): 現実世界の環境に展開されたディープフェイク検知システムは、モデル性能を低下させる知覚できない摂動を発生させる敵の対象となる。
敵の訓練は広く採用されている防御だが、現実的な状況下では、攻撃者は限られた知識とミスマッチしたデータ配布で行動する。
この作業では、データセットのsoUrces、モデルアーキテクチャと Balance、およびDUMBerの方法論をディープフェイク検出に拡張します。
我々は,現実の洞察を抽出するために,移動可能性制約とデータセット間構成の下での敵攻撃に対する検出器の堅牢性を評価する。
本研究は5つの最先端検出器(RECCE, SRM, XCeption, UCF, SPSL)、3つの攻撃(PGD, FGSM, FPBA)、2つのデータセット(FaceForensics++, Celeb-DF-V2)にまたがる。
我々は攻撃者とディフェンダーの両方の視点を分析し、結果をミスマッチシナリオにマッピングする。
実験により, 対人訓練戦略は, 流通事例の堅牢性を高めるが, 採用戦略によっては, クロスデータセット構成下での分解も可能であることが示された。
これらの知見は、敵攻撃に晒された現実世界のアプリケーションにおけるケースアウェア防衛戦略の必要性を浮き彫りにしている。
関連論文リスト
- Benchmarking Misuse Mitigation Against Covert Adversaries [80.74502950627736]
既存の言語モデルの安全性評価は、オーバースト攻撃と低レベルのタスクに重点を置いている。
我々は、隠蔽攻撃と対応する防御の評価を自動化するデータ生成パイプラインである、ステートフルディフェンスのためのベンチマーク(BSD)を開発した。
評価の結果,分解攻撃は有効な誤用防止剤であり,その対策としてステートフルディフェンスを強調した。
論文 参考訳(メタデータ) (2025-06-06T17:33:33Z) - Addressing Key Challenges of Adversarial Attacks and Defenses in the Tabular Domain: A Methodological Framework for Coherence and Consistency [25.830427564563422]
CSAD(Class-Specific Anomaly Detection)は,新しい異常検出手法である。
CSADは, 広い良性分布ではなく, 予測されたクラス分布に対して, 対数サンプルを評価する。
本評価では, 異常検出率とSHAPに基づく評価を併用し, 対向検体品質のより包括的測定を行う。
論文 参考訳(メタデータ) (2024-12-10T09:17:09Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Exploring the Physical World Adversarial Robustness of Vehicle Detection [13.588120545886229]
アドリアックは現実世界の検知モデルの堅牢性を損なう可能性がある。
CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
本研究は, 逆境条件下での多種多様なモデル性能について考察した。
論文 参考訳(メタデータ) (2023-08-07T11:09:12Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Defending Observation Attacks in Deep Reinforcement Learning via
Detection and Denoising [3.2023814100005907]
外部環境が管理する観測空間における摂動として現れる攻撃は、政策性能を低下させる。
これらの攻撃を防御するために,検出・復号化スキーマを用いた新しい防衛戦略を提案する。
我々のソリューションは攻撃中の環境でのサンプリングデータを必要としないため、トレーニング中のリスクを大幅に低減する。
論文 参考訳(メタデータ) (2022-06-14T22:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。