論文の概要: Attack-Aware Deepfake Detection under Counter-Forensic Manipulations
- arxiv url: http://arxiv.org/abs/2512.22303v1
- Date: Fri, 26 Dec 2025 04:05:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.977008
- Title: Attack-Aware Deepfake Detection under Counter-Forensic Manipulations
- Title(参考訳): 対法的操作による攻撃型ディープフェイク検出
- Authors: Noor Fatima, Hasan Faraz Khan, Muzammil Behzad,
- Abstract要約: 本研究は, 現実的な展開条件下でのロバスト性, 良好な校正可能性, 透明なエビデンスのために設計された, 攻撃対応のディープフェイクおよび画像解析検出器を提案する。
この方法は、2ストリームアーキテクチャにおけるレッドチームトレーニングとランダム化されたテストタイムディフェンスを組み合わせる。
その結果,アタック間のほぼ完全なランク付け,キャリブレーション誤差の低減,禁忌リスクの最小化,リグライン下でのタンパーの制御が示された。
- 参考スコア(独自算出の注目度): 0.30586855806896035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents an attack-aware deepfake and image-forensics detector designed for robustness, well-calibrated probabilities, and transparent evidence under realistic deployment conditions. The method combines red-team training with randomized test-time defense in a two-stream architecture, where one stream encodes semantic content using a pretrained backbone and the other extracts forensic residuals, fused via a lightweight residual adapter for classification, while a shallow Feature Pyramid Network style head produces tamper heatmaps under weak supervision. Red-team training applies worst-of-K counter-forensics per batch, including JPEG realign and recompress, resampling warps, denoise-to-regrain operations, seam smoothing, small color and gamma shifts, and social-app transcodes, while test-time defense injects low-cost jitters such as resize and crop phase changes, mild gamma variation, and JPEG phase shifts with aggregated predictions. Heatmaps are guided to concentrate within face regions using face-box masks without strict pixel-level annotations. Evaluation on existing benchmarks, including standard deepfake datasets and a surveillance-style split with low light and heavy compression, reports clean and attacked performance, AUC, worst-case accuracy, reliability, abstention quality, and weak-localization scores. Results demonstrate near-perfect ranking across attacks, low calibration error, minimal abstention risk, and controlled degradation under regrain, establishing a modular, data-efficient, and practically deployable baseline for attack-aware detection with calibrated probabilities and actionable heatmaps.
- Abstract(参考訳): 本研究は, 現実的な展開条件下でのロバスト性, 良好な校正可能性, 透明なエビデンスのために設計された, 攻撃対応のディープフェイクおよび画像解析検出器を提案する。
この方法は、2ストリームアーキテクチャにおいて、レッドチームトレーニングとランダム化されたテストタイムディフェンスを組み合わせ、一方のストリームが事前訓練されたバックボーンを用いてセマンティックコンテンツをエンコードし、他方のストリームが法定残差を抽出し、軽量な残差アダプタを介して分類し、一方の浅いフィーチャーピラミッドネットワークスタイルのヘッドは弱い監督下でタンパーヒートマップを生成する。
赤チームトレーニングでは、JPEGリアリグとリ圧縮、再サンプリング、ワープのリサンプリング、シームスムーシング、小さな色とガンマシフト、ソーシャルアプリトランスコードなど、バッチ毎に最悪のK対向法則を適用している一方、テストタイムディフェンスでは、リサイズや作物のフェーズの変化、軽度のガンマ変動、集約された予測を伴うJPEGフェーズシフトなどの低コストジッタを注入する。
ヒートマップは、厳密なピクセルレベルのアノテーションなしでフェイスボックスマスクを使用して、顔領域に集中するようにガイドされている。
標準のディープフェイクデータセットや、低い光と重い圧縮を備えた監視スタイルのスプリット、クリーンでアタックなパフォーマンス、AUC、最悪のケースの正確性、信頼性、控えめな品質、弱いローカライゼーションスコアなど、既存のベンチマークの評価。
以上の結果から,アタック全体にわたるほぼ完全なランキング,低校正誤差,最小限の禁忌リスク,リグライン下での制御劣化,そして,キャリブレーションされた確率と実行可能なヒートマップによる攻撃認識検出のためのモジュール的でデータ効率,実用的に展開可能なベースラインを確立することができた。
関連論文リスト
- Uncertainty-Aware Post-Detection Framework for Enhanced Fire and Smoke Detection in Compact Deep Learning Models [0.0]
既存のビジョンベースの手法は、効率性と信頼性のバランスをとる上で困難に直面している。
YOLOv5nやYOLOv8nといったディープラーニングモデルは、UAV、CCTVシステム、IoTデバイスへのデプロイに広く採用されている。
本稿では,統計的不確実性と領域関連視覚的手がかりの両方を用いて,検出信頼度を再スケールする不確実性検出後フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-11T08:36:57Z) - ForensicsSAM: Toward Robust and Unified Image Forgery Detection and Localization Resisting to Adversarial Attack [56.0056378072843]
高い転送性を持つ逆画像は上流モデルでのみ作成可能であることを示す。
本稿では,IFDLフレームワークを組み込んだForensicsSAMを提案する。
論文 参考訳(メタデータ) (2025-08-10T16:03:44Z) - A Few Large Shifts: Layer-Inconsistency Based Minimal Overhead Adversarial Example Detection [13.109309606764754]
我々は、ターゲットモデル自体の内部の階層的不整合を利用するプラグイン検出フレームワークを導入する。
本手法は計算オーバーヘッドを無視して最先端検出性能を実現する。
論文 参考訳(メタデータ) (2025-05-19T00:48:53Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。