論文の概要: On the explainable properties of 1-Lipschitz Neural Networks: An Optimal
Transport Perspective
- arxiv url: http://arxiv.org/abs/2206.06854v2
- Date: Thu, 22 Jun 2023 12:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 18:10:50.645060
- Title: On the explainable properties of 1-Lipschitz Neural Networks: An Optimal
Transport Perspective
- Title(参考訳): 1-リプシッツニューラルネットワークの解法特性について : 最適輸送の観点から
- Authors: Mathieu Serrurier (IRIT, UT), Franck Mamalet (UT), Thomas Fel (UT),
Louis B\'ethune (UT3, UT, IRIT), Thibaut Boissin (UT)
- Abstract要約: 従来のニューラルネットワークによって生成されたサリエンシマップは、しばしばノイズが多く、限られた洞察を提供する。
最適輸送問題の二重損失から学習した1-Lipschitzニューラルネットワークは望ましいXAI特性を示す。
また、これらの地図は、ImageNet上の人間の説明と前例のないほどよく一致していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Input gradients have a pivotal role in a variety of applications, including
adversarial attack algorithms for evaluating model robustness, explainable AI
techniques for generating Saliency Maps, and counterfactual explanations.
However, Saliency Maps generated by traditional neural networks are often noisy
and provide limited insights. In this paper, we demonstrate that, on the
contrary, the Saliency Maps of 1-Lipschitz neural networks, learnt with the
dual loss of an optimal transportation problem, exhibit desirable XAI
properties: They are highly concentrated on the essential parts of the image
with low noise, significantly outperforming state-of-the-art explanation
approaches across various models and metrics. We also prove that these maps
align unprecedentedly well with human explanations on ImageNet. To explain the
particularly beneficial properties of the Saliency Map for such models, we
prove this gradient encodes both the direction of the transportation plan and
the direction towards the nearest adversarial attack. Following the gradient
down to the decision boundary is no longer considered an adversarial attack,
but rather a counterfactual explanation that explicitly transports the input
from one class to another. Thus, Learning with such a loss jointly optimizes
the classification objective and the alignment of the gradient , i.e. the
Saliency Map, to the transportation plan direction. These networks were
previously known to be certifiably robust by design, and we demonstrate that
they scale well for large problems and models, and are tailored for
explainability using a fast and straightforward method.
- Abstract(参考訳): 入力勾配は、モデルロバスト性を評価するための敵攻撃アルゴリズム、Saliency Mapsを生成するための説明可能なAI技術、および反実的説明など、さまざまなアプリケーションにおいて重要な役割を持つ。
しかし、従来のニューラルネットワークによって生成されたSaliency Mapsは、しばしばノイズが多く、洞察が限られている。
本稿では,1-LipschitzニューラルネットのSaliency Mapsが最適輸送問題の二重損失から学習し,望ましいXAI特性を示すことを実証する。
また、これらの地図は、ImageNet上の人間の説明と前例のないほどよく一致していることを示す。
このようなモデルに対する塩分マップの特に有益な性質を説明するために、この勾配は輸送計画の方向と最も近い対向攻撃への方向の両方を符号化していることを証明している。
決定境界への勾配に従うことは、もはや敵攻撃ではなく、あるクラスから別のクラスへの入力を明示的に輸送する反実的な説明である。
このようにして、このような損失を伴う学習は、分類目標と勾配、すなわち、サリエンシマップの輸送計画方向へのアライメントを共同で最適化する。
これらのネットワークは従来,設計上頑健であることが知られており,大規模問題やモデルに対して拡張性が高く,高速で分かりやすい手法による説明性にも適していた。
関連論文リスト
- Landscaping Linear Mode Connectivity [76.39694196535996]
線形モード接続(LMC)は理論と実用の両方の観点から関心を集めている。
ロスランドスケープがLCCに対して地形的にどのように振る舞う必要があるかのモデルを提供することで、その理解に向けて一歩前進する。
論文 参考訳(メタデータ) (2024-06-24T03:53:30Z) - SCAAT: Improving Neural Network Interpretability via Saliency
Constrained Adaptive Adversarial Training [10.716021768803433]
サリエンシマップは、特徴属性のヒートマップを示す一般的な説明形式である。
本研究では,DNNの解釈能力を向上させるために,Saliency Constrained Adversarial Training (SCAAT) と呼ばれるモデルに依存しない学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T04:48:38Z) - MacFormer: Map-Agent Coupled Transformer for Real-time and Robust
Trajectory Prediction [26.231420111336565]
実時間およびロバストな軌道予測のためのMap-Agent Coupled Transformer (MacFormer)を提案する。
本フレームワークは,共用マップと参照抽出器という,慎重に設計された2つのモジュールを通じて,マップ制約をネットワークに明示的に組み込む。
我々はArgoverse 1 と Argoverse 2 と nuScenes の実世界のベンチマークに対するアプローチを評価し、いずれも最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-08-20T14:27:28Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Unpaired Image Super-Resolution with Optimal Transport Maps [128.1189695209663]
実世界の画像超解像(SR)タスクは、しばしば、教師付き技術の適用を制限するペアデータセットを持っていない。
本稿では,非バイアスのOTマップを知覚輸送コストで学習する未ペアSRのアルゴリズムを提案する。
我々のアルゴリズムは、大規模無人AIM-19データセット上で、最先端のパフォーマンスをほぼ提供する。
論文 参考訳(メタデータ) (2022-02-02T16:21:20Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Assessing the Reliability of Visual Explanations of Deep Models with
Adversarial Perturbations [15.067369314723958]
本稿では,深層モデルの説明の信頼性を評価するための客観的尺度を提案する。
提案手法は,入力画像の逆方向の摂動によるネットワーク結果の変化に基づく。
我々はまた,本質的な説明を損なうことなく,より解釈可能な地図を創出し,関連性マップのクリーン化へのアプローチの直接的な適用を提案する。
論文 参考訳(メタデータ) (2020-04-22T19:57:34Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。