論文の概要: SAM: The Sensitivity of Attribution Methods to Hyperparameters
- arxiv url: http://arxiv.org/abs/2003.08754v2
- Date: Mon, 13 Apr 2020 03:32:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:42:41.741586
- Title: SAM: The Sensitivity of Attribution Methods to Hyperparameters
- Title(参考訳): SAM:ハイパーパラメータへの属性法の感度
- Authors: Naman Bansal, Chirag Agarwal, Anh Nguyen
- Abstract要約: 説明手法の重要なデシプラタムは、しばしばランダムに設定または経験的に調整されるハイパーパラメータ入力の堅牢性である。
本稿では,既存属性法の感度に関する実験的検討を行った。
- 参考スコア(独自算出の注目度): 13.145335512841557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribution methods can provide powerful insights into the reasons for a
classifier's decision. We argue that a key desideratum of an explanation method
is its robustness to input hyperparameters which are often randomly set or
empirically tuned. High sensitivity to arbitrary hyperparameter choices does
not only impede reproducibility but also questions the correctness of an
explanation and impairs the trust of end-users. In this paper, we provide a
thorough empirical study on the sensitivity of existing attribution methods. We
found an alarming trend that many methods are highly sensitive to changes in
their common hyperparameters e.g. even changing a random seed can yield a
different explanation! Interestingly, such sensitivity is not reflected in the
average explanation accuracy scores over the dataset as commonly reported in
the literature. In addition, explanations generated for robust classifiers
(i.e. which are trained to be invariant to pixel-wise perturbations) are
surprisingly more robust than those generated for regular classifiers.
- Abstract(参考訳): アトリビューションメソッドは、分類器の決定の理由に関する強力な洞察を提供することができる。
説明手法の重要なデシプラタムは、しばしばランダムに設定または経験的に調整されるハイパーパラメータ入力の堅牢性である。
任意のハイパーパラメータの選択に対する高い感度は再現性を妨げるだけでなく、説明の正確性にも疑問を呈し、エンドユーザの信頼を損なう。
本稿では,既存の帰属法の感度に関する徹底的な実証研究を行う。
私たちは、多くのメソッドが共通のハイパーパラメータの変化に非常に敏感である、例えばランダムなシードの変更でさえ、異なる説明をもたらす可能性がある、という警告の傾向を発見した。
興味深いことに、この感度は、文献で一般的に報告されているように、データセット上の平均説明精度スコアには反映されない。
さらに、ロバストな分類器(つまり、ピクセル毎の摂動に不変であるように訓練された)で生成される説明は、通常の分類器で生成された説明よりも驚くほど堅牢である。
関連論文リスト
- Classification under Nuisance Parameters and Generalized Label Shift in
Likelihood-Free Inference [3.7166121807265053]
本稿では,不確実性定量化のための新しい手法を提案する。
提案手法は,ドメイン適応能力を持つ事前学習型分類器を効果的に提供し,高出力を維持しながら有効な予測セットを返却する。
現実的な力学モデルから得られたデータを用いて、生物学と天体物理学における2つの挑戦的な科学的問題に対して、その性能を実証する。
論文 参考訳(メタデータ) (2024-02-08T00:12:18Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [91.51897617724816]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
本稿では,モンテカルロサンプリングによるランダムな平滑化過程推定における分散が,分類器のリプシッツ定数とマージンと密接な相互作用を示す。
我々はベルンシュタインの濃度不等式と拡張されたリプシッツ境界をランダム化平滑化に利用し、実験結果から現在の最先端手法と比較して精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Parameter Averaging for Robust Explainability [5.032906900691182]
本稿では,XTab と呼ばれる表層データ設定におけるロバストな説明可能性を考慮したパラメータ平均化手法を提案する。
提案手法は,様々な実データおよび合成データに対して広範な実験を行い,提案手法が特徴選択に有効であること,および準最適モデルの初期化に敏感でない大域的特徴量を得ることができることを実証した。
論文 参考訳(メタデータ) (2022-08-05T16:00:07Z) - Robust Counterfactual Explanations for Random Forests [76.84947521482631]
本研究では,アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係について検討する。
既存の手法が驚くほど低いロバスト性を与えることを示す: 単純な反事実の妥当性は、ほとんどのデータセットで50%以下である。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Deterministic Certification to Adversarial Attacks via Bernstein
Polynomial Approximation [5.392822954974537]
ランダム化された平滑化は、高い確率で$ell$標準敵攻撃に対する最先端の証明可能な堅牢性を確立している。
自然の精度を維持しながらランダム化せずにスムーズな分類器を構築することは可能か?
本手法は,決定境界平滑化のための決定論的アルゴリズムを提供する。
また、非線形方程式系の数値解を通したノルム非独立性証明ロバストネスの特異なアプローチも導入する。
論文 参考訳(メタデータ) (2020-11-28T08:27:42Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。