論文の概要: CausAdv: A Causal-based Framework for Detecting Adversarial Examples
- arxiv url: http://arxiv.org/abs/2411.00839v1
- Date: Tue, 29 Oct 2024 22:57:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:51:57.535236
- Title: CausAdv: A Causal-based Framework for Detecting Adversarial Examples
- Title(参考訳): CausAdv: 逆例を検出するための因果ベースのフレームワーク
- Authors: Hichem Debbi,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、入力の逆方向の摂動に対して脆弱である。
これらの入力は、自然画像とほとんど区別できないように見えるが、CNNアーキテクチャによって誤って分類されている。
本稿では,反実的推論に基づく逆例検出のための因果的フレームワークCausAdvを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deep learning has led to tremendous success in many real-world applications of computer vision, thanks to sophisticated architectures such as Convolutional neural networks (CNNs). However, CNNs have been shown to be vulnerable to crafted adversarial perturbations in inputs. These inputs appear almost indistinguishable from natural images, yet they are incorrectly classified by CNN architectures. This vulnerability of adversarial examples has led researchers to focus on enhancing the robustness of deep learning models in general, and CNNs in particular, by creating defense and detection methods to distinguish adversarials inputs from natural ones. In this paper, we address the adversarial robustness of CNNs through causal reasoning. We propose CausAdv: a causal framework for detecting adversarial examples based on counterfactual reasoning. CausAdv learns causal and non-causal features of every input, and quantifies the counterfactual information (CI) of every filter of the last convolutional layer. Then we perform statistical analysis on the filters CI of every sample, whether clan or adversarials, to demonstrate how adversarial examples indeed exhibit different CI distributions compared to clean samples. Our results show that causal reasoning enhances the process of adversarials detection without the need to train a separate detector. In addition, we illustrate the efficiency of causal explanations as a helpful detection technique through visualizing the causal features. The results can be reproduced using the code available in the repository: https://github.com/HichemDebbi/CausAdv.
- Abstract(参考訳): ディープラーニングは、畳み込みニューラルネットワーク(CNN)のような高度なアーキテクチャのおかげで、コンピュータビジョンの現実の多くのアプリケーションで大きな成功を収めた。
しかし、CNNは入力の逆方向の摂動に弱いことが示されている。
これらの入力は、自然画像とほとんど区別できないように見えるが、CNNアーキテクチャによって誤って分類されている。
この敵対的な例の脆弱性は、研究者が一般的にディープラーニングモデルの堅牢性を高めることに焦点を合わせ、特にCNNは、敵の入力と自然の入力を区別する防御と検出の方法を作成することによって、特にその強化に力を入れている。
本稿では、因果推論によるCNNの対角的堅牢性について論じる。
本稿では,反実的推論に基づく逆例検出のための因果的フレームワークCausAdvを提案する。
CausAdvは全ての入力の因果的特徴と非因果的特徴を学び、最後の畳み込み層の全てのフィルタの反事実情報(CI)を定量化する。
次に, 各サンプルのフィルタCI, 氏族, 反対族を問わず, 統計的分析を行い, クリーンサンプルと比較して, 対人例が実際にどのように異なるCI分布を示すかを示す。
以上の結果から,因果推論は,別個の検出器を訓練することなく,逆方向検出のプロセスを向上させることが示唆された。
さらに、因果的特徴を可視化することにより、因果的説明の効率を有用な検出手法として説明する。
結果は、リポジトリで利用可能なコードを使って再現することができる。
関連論文リスト
- Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Instance Attack:An Explanation-based Vulnerability Analysis Framework
Against DNNs for Malware Detection [0.0]
本稿では,インスタンスベースの攻撃の概念を提案する。
我々の方式は解釈可能であり、ブラックボックス環境でも機能する。
提案手法はブラックボックス設定で動作し,その結果をドメイン知識で検証することができる。
論文 参考訳(メタデータ) (2022-09-06T12:41:20Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Adversarial Profiles: Detecting Out-Distribution & Adversarial Samples
in Pre-trained CNNs [4.52308938611108]
本稿では, 事前学習したCNNに対して, 敵対的, アウト・ディストリビューション的事例を検出する手法を提案する。
この目的のために,1つの対向攻撃生成技術のみを用いて,各クラスに対する対向プロファイルを作成する。
MNISTデータセットを用いた本手法の初期評価では, 分布外例の少なくとも92例, 対向外例の59%を検出するのに, 対向プロファイルに基づく検出が有効であることが示唆された。
論文 参考訳(メタデータ) (2020-11-18T07:10:13Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。