論文の概要: When adversarial attacks become interpretable counterfactual
explanations
- arxiv url: http://arxiv.org/abs/2206.06854v1
- Date: Tue, 14 Jun 2022 13:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 13:30:05.914899
- Title: When adversarial attacks become interpretable counterfactual
explanations
- Title(参考訳): 逆境攻撃が 解釈可能な反事実的説明になるとき
- Authors: Mathieu Serrurier, Franck Mamalet, Thomas Fel, Louis B\'ethune,
Thibaut Boissin
- Abstract要約: 最適輸送問題の二重損失を伴う1-Lipschitzニューラルネットワークを学習する場合、モデルの勾配は輸送計画の方向と最も近い敵攻撃への方向の両方である。
このようなネットワークに適用された簡易なサリエンシマップ法は信頼性の高い説明となり、制約のないモデルに対する最先端の説明手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 4.024850952459759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that, when learning a 1-Lipschitz neural network with the dual loss
of an optimal transportation problem, the gradient of the model is both the
direction of the transportation plan and the direction to the closest
adversarial attack. Traveling along the gradient to the decision boundary is no
more an adversarial attack but becomes a counterfactual explanation, explicitly
transporting from one class to the other. Through extensive experiments on XAI
metrics, we find that the simple saliency map method, applied on such networks,
becomes a reliable explanation, and outperforms the state-of-the-art
explanation approaches on unconstrained models. The proposed networks were
already known to be certifiably robust, and we prove that they are also
explainable with a fast and simple method.
- Abstract(参考訳): 最適輸送問題の二重損失を伴う1-Lipschitzニューラルネットワークを学習する場合、モデルの勾配は輸送計画の方向と最も近い敵攻撃への方向の両方である。
決定境界への勾配に沿って移動することは、もはや敵の攻撃ではなく、あるクラスから別のクラスへ明示的に輸送する反現実的な説明になる。
xaiメトリクスに関する広範な実験を通じて、そのようなネットワークに適用された単純なサルマンシーマップ法は、信頼できる説明となり、制約のないモデルにおける最先端の説明アプローチを上回ることを見出した。
提案したネットワークは, 比較的堅牢であることが知られており, 高速かつ簡単な手法で説明可能であることも証明した。
関連論文リスト
- SCAAT: Improving Neural Network Interpretability via Saliency
Constrained Adaptive Adversarial Training [10.716021768803433]
サリエンシマップは、特徴属性のヒートマップを示す一般的な説明形式である。
本研究では,DNNの解釈能力を向上させるために,Saliency Constrained Adversarial Training (SCAAT) と呼ばれるモデルに依存しない学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T04:48:38Z) - MacFormer: Map-Agent Coupled Transformer for Real-time and Robust
Trajectory Prediction [26.231420111336565]
実時間およびロバストな軌道予測のためのMap-Agent Coupled Transformer (MacFormer)を提案する。
本フレームワークは,共用マップと参照抽出器という,慎重に設計された2つのモジュールを通じて,マップ制約をネットワークに明示的に組み込む。
我々はArgoverse 1 と Argoverse 2 と nuScenes の実世界のベンチマークに対するアプローチを評価し、いずれも最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-08-20T14:27:28Z) - Enhancing Mapless Trajectory Prediction through Knowledge Distillation [19.626383744807068]
ハイデフィニションマップ(HDマップ)は、アノテーションの高コストや、広く使われることを制限する法律の制限に悩まされる可能性がある。
本稿では,マルチモーダルな予測軌道の整合性と実際の道路トポロジの整合性を改善する問題に取り組む。
我々の解は、一般的な軌道予測ネットワークに対して一般化可能であり、余分な計算負担を伴わない。
論文 参考訳(メタデータ) (2023-06-25T09:05:48Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Unpaired Image Super-Resolution with Optimal Transport Maps [128.1189695209663]
実世界の画像超解像(SR)タスクは、しばしば、教師付き技術の適用を制限するペアデータセットを持っていない。
本稿では,非バイアスのOTマップを知覚輸送コストで学習する未ペアSRのアルゴリズムを提案する。
我々のアルゴリズムは、大規模無人AIM-19データセット上で、最先端のパフォーマンスをほぼ提供する。
論文 参考訳(メタデータ) (2022-02-02T16:21:20Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Assessing the Reliability of Visual Explanations of Deep Models with
Adversarial Perturbations [15.067369314723958]
本稿では,深層モデルの説明の信頼性を評価するための客観的尺度を提案する。
提案手法は,入力画像の逆方向の摂動によるネットワーク結果の変化に基づく。
我々はまた,本質的な説明を損なうことなく,より解釈可能な地図を創出し,関連性マップのクリーン化へのアプローチの直接的な適用を提案する。
論文 参考訳(メタデータ) (2020-04-22T19:57:34Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。