論文の概要: Probabilistic Lipschitzness and the Stable Rank for Comparing
Explanation Models
- arxiv url: http://arxiv.org/abs/2402.18863v2
- Date: Fri, 8 Mar 2024 02:03:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:25:55.149364
- Title: Probabilistic Lipschitzness and the Stable Rank for Comparing
Explanation Models
- Title(参考訳): 説明モデルの比較のための確率的リプシッツネスと安定ランク
- Authors: Lachlan Simpson, Kyle Millar, Adriel Cheng, Cheng-Chew Lim, Hong Gunn
Chew
- Abstract要約: ニューラルネットワークのブラックボックスの性質に対処するために、機械学習内で説明可能性モデルが普及した。
確率論的リプシッツネスは、ニューラルネットワークの滑らかさがポストホックの説明の質と根本的に関連していることを示した。
- 参考スコア(独自算出の注目度): 6.010194098264184
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainability models are now prevalent within machine learning to address
the black-box nature of neural networks. The question now is which
explainability model is most effective. Probabilistic Lipschitzness has
demonstrated that the smoothness of a neural network is fundamentally linked to
the quality of post hoc explanations. In this work, we prove theoretical lower
bounds on the probabilistic Lipschitzness of Integrated Gradients, LIME and
SmoothGrad. We propose a novel metric using probabilistic Lipschitzness,
normalised astuteness, to compare the robustness of explainability models.
Further, we prove a link between the local Lipschitz constant of a neural
network and its stable rank. We then demonstrate that the stable rank of a
neural network provides a heuristic for the robustness of explainability
models.
- Abstract(参考訳): ニューラルネットワークのブラックボックスの性質に対処するために、機械学習内で説明可能性モデルが普及した。
問題は、どの説明可能性モデルが最も効果的かである。
確率的リプシッツ性は、ニューラルネットワークの滑らかさが、ホック後の説明の品質と根本的に関連していることを示した。
本研究では,積分勾配, LIME, SmoothGradの確率的リプシッツ性に関する理論的下界を証明した。
確率的リプシッツネス(英語版)を用いた新しい計量法を提案し、説明可能性モデルのロバスト性を比較する。
さらに,ニューラルネットワークの局所リプシッツ定数とその安定階数との関係を証明した。
次に,ニューラルネットワークの安定ランクが説明可能性モデルのロバスト性に対するヒューリスティックとなることを示す。
関連論文リスト
- Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Utility-Probability Duality of Neural Networks [4.871730595406078]
本稿では,ディープラーニングにおける標準教師あり学習手順に対するユーティリティに基づく代替的説明を提案する。
基本的な考え方は、学習したニューラルネットワークを確率モデルではなく、順序付きユーティリティ関数として解釈することである。
ソフトマックス出力を持つ全てのニューラルネットワークに対して、最大推定値のSGD学習ダイナミクスを反復過程と見なすことができる。
論文 参考訳(メタデータ) (2023-05-24T08:09:07Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - Path classification by stochastic linear recurrent neural networks [2.5499055723658097]
トレーニングや分類作業に利用されるユニークな情報として,RNNが供給される経路の部分的なシグネチャを保持することを示す。
これらのRNNは訓練が容易で堅牢であり、これらの観測を合成データと実データの両方で数値実験で裏付けるものである、と我々は主張する。
論文 参考訳(メタデータ) (2021-08-06T12:59:12Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - CLIP: Cheap Lipschitz Training of Neural Networks [0.0]
ニューラルネットワークのLipschitz定数を制御するためのCLIPという変分正規化手法を検討する。
提案モデルを数学的に解析し,特にネットワークの出力に対する選択正規化パラメータの影響について考察した。
論文 参考訳(メタデータ) (2021-03-23T13:29:24Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Lipschitz Bounded Equilibrium Networks [3.2872586139884623]
本稿では、平衡ニューラルネットワーク、すなわち暗黙の方程式で定義されるネットワークの新しいパラメータ化を提案する。
新しいパラメータ化は、制約のない最適化を通じてトレーニング中にリプシッツ境界を許容する。
画像分類実験では、リプシッツ境界は非常に正確であり、敵攻撃に対する堅牢性を向上させることが示されている。
論文 参考訳(メタデータ) (2020-10-05T01:00:40Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - The Lipschitz Constant of Self-Attention [27.61634862685452]
ニューラルネットワークのリプシッツ定数は、ディープラーニングにおいて様々な文脈で研究されている。
配列モデリングに広く用いられている非線形ニューラルネットワークモジュールである自己アテンションのリプシッツ定数について検討する。
論文 参考訳(メタデータ) (2020-06-08T16:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。