論文の概要: Resilience of Bayesian Layer-Wise Explanations under Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2102.11010v1
- Date: Mon, 22 Feb 2021 14:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 09:51:20.752966
- Title: Resilience of Bayesian Layer-Wise Explanations under Adversarial Attacks
- Title(参考訳): 逆襲によるベイズ層別説明のレジリエンス
- Authors: Ginevra Carbone, Guido Sanguinetti, Luca Bortolussi
- Abstract要約: 決定論的ニューラルネットワークでは,攻撃が失敗した場合でも,サリエンシ解釈が著しく脆弱であることを示す。
ベイジアンニューラルネットワークによるサリエンシの説明は, 対向的摂動下ではかなり安定していることを示す。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of the stability of saliency-based explanations of
Neural Network predictions under adversarial attacks in a classification task.
We empirically show that, for deterministic Neural Networks, saliency
interpretations are remarkably brittle even when the attacks fail, i.e. for
attacks that do not change the classification label. By leveraging recent
results, we provide a theoretical explanation of this result in terms of the
geometry of adversarial attacks. Based on these theoretical considerations, we
suggest and demonstrate empirically that saliency explanations provided by
Bayesian Neural Networks are considerably more stable under adversarial
perturbations. Our results not only confirm that Bayesian Neural Networks are
more robust to adversarial attacks, but also demonstrate that Bayesian methods
have the potential to provide more stable and interpretable assessments of
Neural Network predictions.
- Abstract(参考訳): 分類タスクにおける敵対攻撃時におけるニューラルネットワーク予測のサラリエンスに基づく説明の安定性の問題を検討する。
決定論的ニューラルネットワークでは,攻撃が失敗した場合でも,サリエンシの解釈が著しく脆弱であることを示す。
分類ラベルを変更しない攻撃に対して。
近年の成果を生かして,敵の攻撃の幾何学的側面から,この結果の理論的説明を行う。
これらの理論的考察に基づき,ベイズニューラルネットワークによるサリエンシの説明は,逆方向の摂動下ではかなり安定であることを示す。
その結果,ベイジアンニューラルネットワークが敵攻撃に対してより堅牢であるだけでなく,ベイジアン手法がニューラルネットワーク予測をより安定かつ解釈可能な評価を提供する可能性を実証した。
関連論文リスト
- Over-parameterization and Adversarial Robustness in Neural Networks: An Overview and Empirical Analysis [25.993502776271022]
大きなパラメータ空間を持つことは、敵の例に対するニューラルネットワークの脆弱性の主な疑念の1つと考えられている。
従来の研究は、検討されたモデルによっては、敵の例を生成するアルゴリズムが適切に機能しないことを示した。
論文 参考訳(メタデータ) (2024-06-14T14:47:06Z) - Attacking Bayes: On the Adversarial Robustness of Bayesian Neural Networks [10.317475068017961]
我々は,最先端のBNN推論手法と予測パイプラインを破ることが可能であるか検討する。
我々は、最先端の近似推論手法で訓練されたBNNや、ハミルトン・モンテカルロで訓練されたBNNでさえ、敵の攻撃に非常に敏感であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T01:34:46Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Robustness against Adversarial Attacks in Neural Networks using
Incremental Dissipativity [3.8673567847548114]
逆例はニューラルネットワークの分類性能を低下させるのが容易である。
本研究は,ニューラルネットワークに対する漸進的拡散性に基づくロバスト性証明を提案する。
論文 参考訳(メタデータ) (2021-11-25T04:42:57Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Evaluating the Robustness of Bayesian Neural Networks Against Different
Types of Attacks [2.599882743586164]
ベイズニューラルネットワークは, 決定論的ニューラルネットワークモデルに対して発生する敵攻撃に対して, はるかに高い堅牢性を達成することを示す。
後肢は、現在進行中の悪意ある活動の安全前駆体として機能する。
これは、安全クリティカルなドメイン内の意思決定パイプライン構築におけるレイヤの利用を推奨する。
論文 参考訳(メタデータ) (2021-06-17T03:18:59Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Proper Network Interpretability Helps Adversarial Robustness in
Classification [91.39031895064223]
本稿では,解釈の適切な測定を行うことで,予測回避攻撃が解釈の不一致を引き起こすのを防ぐことは困難であることを示す。
我々は,頑健な解釈の促進にのみ焦点をあてて,解釈可能性に配慮した防御手法を開発した。
その結果,我々の防衛力は,強靭な分類と頑健な解釈の両方を達成し,大規模な摂動攻撃に対する最先端の対人訓練方法よりも優れていた。
論文 参考訳(メタデータ) (2020-06-26T01:31:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。