論文の概要: An adversarial attack approach for eXplainable AI evaluation on deepfake
detection models
- arxiv url: http://arxiv.org/abs/2312.06627v1
- Date: Fri, 8 Dec 2023 15:19:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:18:57.834600
- Title: An adversarial attack approach for eXplainable AI evaluation on deepfake
detection models
- Title(参考訳): ディープフェイク検出モデルを用いたeXplainable AI評価のための逆攻撃手法
- Authors: Balachandar Gowrisankar, Vrizlynn L.L. Thing
- Abstract要約: 画像分類タスクでは、XAIツールはモデルが与える決定に影響を与えるピクセルをハイライトする。
さまざまなツールを評価し、その中の最高のパフォーマンスを決定する必要があります。
本稿では,本手法が深度検出モデルに適さないことを示す実験を行った。
- 参考スコア(独自算出の注目度): 3.3797771637485754
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rising concern on model interpretability, the application of
eXplainable AI (XAI) tools on deepfake detection models has been a topic of
interest recently. In image classification tasks, XAI tools highlight pixels
influencing the decision given by a model. This helps in troubleshooting the
model and determining areas that may require further tuning of parameters. With
a wide range of tools available in the market, choosing the right tool for a
model becomes necessary as each one may highlight different sets of pixels for
a given image. There is a need to evaluate different tools and decide the best
performing ones among them. Generic XAI evaluation methods like insertion or
removal of salient pixels/segments are applicable for general image
classification tasks but may produce less meaningful results when applied on
deepfake detection models due to their functionality. In this paper, we perform
experiments to show that generic removal/insertion XAI evaluation methods are
not suitable for deepfake detection models. We also propose and implement an
XAI evaluation approach specifically suited for deepfake detection models.
- Abstract(参考訳): モデルの解釈可能性に対する懸念が高まっているため、ディープフェイク検出モデルへのeXplainable AI(XAI)ツールの適用が近年関心を集めている。
画像分類タスクでは、XAIツールはモデルが与える決定に影響を与えるピクセルをハイライトする。
これにより、モデルのトラブルシュートやパラメータのさらなるチューニングが必要な領域の決定に役立ちます。
様々なツールが市場に出回っているため、モデルに適したツールを選択する必要がある。
さまざまなツールを評価し、その中の最高のパフォーマンスを決定する必要があります。
汎用的なxai評価手法であるsaient pixels/segmentsの挿入や削除は一般的な画像分類タスクに適用できるが、機能上、deepfake検出モデルに適用すると意味の薄い結果をもたらす可能性がある。
本稿では,汎用的なxai評価手法がディープフェイク検出モデルには適さないことを示す実験を行う。
また,深度検出モデルに適したXAI評価手法を提案し,実装した。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - Trainable Noise Model as an XAI evaluation method: application on Sobol
for remote sensing image segmentation [0.5735035463793009]
本稿では,セマンティックセグメンテーションのためのグラデーションフリーなSobol XAI法を適用する。
3つのXAI手法の性能評価と比較のためにベンチマーク分析を行った。
論文 参考訳(メタデータ) (2023-10-03T06:51:48Z) - Quality-Agnostic Deepfake Detection with Intra-model Collaborative
Learning [26.517887637150594]
Deepfakeは最近、セキュリティ上の脅威と偽情報の拡散に関して、多くの社会的懸念を提起した。
多くのSOTAアプローチは、特定のディープフェイクビデオ品質タイプを検出するために単一の特定モデルを使用することによって制限される。
本研究では,異なる品質のディープフェイクを効果的かつ同時検出できる汎用的なモデル内協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-12T02:01:31Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Zero-shot Model Diagnosis [80.36063332820568]
ディープラーニングモデルを評価するための一般的なアプローチは、興味のある属性を持つラベル付きテストセットを構築し、そのパフォーマンスを評価することである。
本稿では,ゼロショットモデル診断(ZOOM)がテストセットやラベル付けを必要とせずに可能であることを論じる。
論文 参考訳(メタデータ) (2023-03-27T17:59:33Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。