論文の概要: Improving the Perturbation-Based Explanation of Deepfake Detectors Through the Use of Adversarially-Generated Samples
- arxiv url: http://arxiv.org/abs/2502.03957v1
- Date: Thu, 06 Feb 2025 10:47:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:34:18.758915
- Title: Improving the Perturbation-Based Explanation of Deepfake Detectors Through the Use of Adversarially-Generated Samples
- Title(参考訳): 逆生成サンプルを用いたディープフェイク検出器の摂動に基づく説明の改善
- Authors: Konstantinos Tsigos, Evlampios Apostolidis, Vasileios Mezaris,
- Abstract要約: 本稿では, ディテクターによってディープフェイクに分類された入力画像の逆生成サンプルを利用する方法を提案する。
我々は、これらのサンプルをNature Evolution Strategiesに基づいて生成し、元のディープフェイク検出器の決定を反転させ、これらのサンプルを本物として分類することを目的としている。
この考え方を4つの摂動に基づく説明法に適用し,提案手法の性能評価を行う。
- 参考スコア(独自算出の注目度): 6.076406622352117
- License:
- Abstract: In this paper, we introduce the idea of using adversarially-generated samples of the input images that were classified as deepfakes by a detector, to form perturbation masks for inferring the importance of different input features and produce visual explanations. We generate these samples based on Natural Evolution Strategies, aiming to flip the original deepfake detector's decision and classify these samples as real. We apply this idea to four perturbation-based explanation methods (LIME, SHAP, SOBOL and RISE) and evaluate the performance of the resulting modified methods using a SOTA deepfake detection model, a benchmarking dataset (FaceForensics++) and a corresponding explanation evaluation framework. Our quantitative assessments document the mostly positive contribution of the proposed perturbation approach in the performance of explanation methods. Our qualitative analysis shows the capacity of the modified explanation methods to demarcate the manipulated image regions more accurately, and thus to provide more useful explanations.
- Abstract(参考訳): 本稿では, ディテクターによってディープフェイクに分類される入力画像の逆生成サンプルを用いて, 異なる入力特徴の重要性を推定し, 視覚的説明を行うための摂動マスクを作成する方法を提案する。
我々は、これらのサンプルをNature Evolution Strategiesに基づいて生成し、元のディープフェイク検出器の決定を反転させ、これらのサンプルを本物として分類することを目的としている。
この考え方を、4つの摂動に基づく説明手法(LIME, SHAP, SOBOL, RISE)に適用し、SOTAディープフェイク検出モデル、ベンチマークデータセット(FaceForensics++)およびそれに対応する説明評価フレームワークを用いて提案手法の性能評価を行う。
本研究の定量的評価は,説明手法の性能評価において提案した摂動アプローチのほぼ正の寄与を裏付けるものである。
筆者らの定性的分析は,操作された画像領域をより正確に解離するための改良された説明手法の能力を示し,より有用な説明を提供する。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - On the Inherent Robustness of One-Stage Object Detection against Out-of-Distribution Data [6.267143531261792]
画像データ中の未知物体を検出する新しい検出アルゴリズムを提案する。
モデルによって抽出された特徴に対する次元の呪いの影響を軽減するために、教師付き次元削減技術を利用する。
これは高解像度の特徴マップを用いて、教師なしの方法で潜在的に未知の物体を識別する。
論文 参考訳(メタデータ) (2024-11-07T10:15:25Z) - Towards Quantitative Evaluation of Explainable AI Methods for Deepfake Detection [12.179602756337818]
本フレームワークは,偽画像の領域を特定するための説明手法の能力を評価し,ディープフェイク検出器の決定に最も大きな影響を与える。
FaceForensics++データセットでトレーニングされたディープフェイク検出のための最先端モデルを用いて比較研究を行う。
論文 参考訳(メタデータ) (2024-04-29T12:32:14Z) - A Quantitative Evaluation of Score Distillation Sampling Based
Text-to-3D [54.78611187426158]
本研究では,SDS手法の故障事例を定量的に分析し,人間の評価によって相互に検証する,より客観的な定量的評価指標を提案する。
計算効率の良い新しいベースラインモデルを設計することで,この解析の有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T00:54:09Z) - Diffusion-based Visual Counterfactual Explanations -- Towards Systematic
Quantitative Evaluation [64.0476282000118]
視覚的対物的説明法(VCE)の最新手法は、深い生成モデルの力を利用して、印象的な画質の高次元画像の新しい例を合成する。
評価手順が大きく異なり,個々の実例の視覚検査や小規模なユーザスタディなど,これらのVCE手法の性能を比較することは,現時点では困難である。
本稿では,VCE手法の体系的,定量的評価のためのフレームワークと,使用する指標の最小セットを提案する。
論文 参考訳(メタデータ) (2023-08-11T12:22:37Z) - Self-Supervised Graph Transformer for Deepfake Detection [1.8133635752982105]
ディープフェイク検出手法は、与えられたデータセット内の偽造を認識できる有望な結果を示している。
ディープフェイク検出システムは、一般的な検出性能を保証するために、偽造タイプ、外観、品質に欠かせないままでいなければならない。
本研究では、自己教師付き事前学習モデルを利用して、例外的な一般化能力を実現するディープフェイク検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-27T17:22:41Z) - ODAM: Gradient-based instance-specific visual explanations for object
detection [51.476702316759635]
勾配重み付き物体検出器活性化マップ(ODAM)
ODAMは、各予測属性に対する検出器の決定に対する領域の影響を示す熱マップを生成する。
そこで本研究では,重複検出対象を識別するために,各予測に対してモデルの説明情報を考慮したOdam-NMSを提案する。
論文 参考訳(メタデータ) (2023-04-13T09:20:26Z) - Assessment Framework for Deepfake Detection in Real-world Situations [13.334500258498798]
ディープラーニングに基づくディープフェイク検出手法は優れた性能を示した。
様々な画像処理操作と典型的なワークフロー歪みが検出精度に与える影響は, 体系的に測定されていない。
より現実的な環境下での学習に基づくディープフェイク検出の性能を評価するために,より信頼性の高い評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-12T19:09:22Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。