論文の概要: Stability Guarantees for Feature Attributions with Multiplicative
Smoothing
- arxiv url: http://arxiv.org/abs/2307.05902v2
- Date: Thu, 26 Oct 2023 22:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 17:14:53.510557
- Title: Stability Guarantees for Feature Attributions with Multiplicative
Smoothing
- Title(参考訳): 乗法的平滑化による特徴属性の安定性保証
- Authors: Anton Xue, Rajeev Alur, Eric Wong
- Abstract要約: 我々は安定性を信頼性のある特徴帰属法の特性として分析する。
このようなモデルを実現するために,Multiplelicative Smoothing (MuS) と呼ばれる平滑化手法を開発した。
LIME や SHAP などの様々な特徴属性法による視覚モデルや言語モデル上で MuS を評価するとともに, MuS が非自明な安定性を保証する特徴属性を付与することを示す。
- 参考スコア(独自算出の注目度): 11.675168649032875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanation methods for machine learning models tend not to provide any
formal guarantees and may not reflect the underlying decision-making process.
In this work, we analyze stability as a property for reliable feature
attribution methods. We prove that relaxed variants of stability are guaranteed
if the model is sufficiently Lipschitz with respect to the masking of features.
We develop a smoothing method called Multiplicative Smoothing (MuS) to achieve
such a model. We show that MuS overcomes the theoretical limitations of
standard smoothing techniques and can be integrated with any classifier and
feature attribution method. We evaluate MuS on vision and language models with
various feature attribution methods, such as LIME and SHAP, and demonstrate
that MuS endows feature attributions with non-trivial stability guarantees.
- Abstract(参考訳): 機械学習モデルの説明方法は、正式な保証を提供しておらず、根底にある意思決定プロセスを反映しない傾向がある。
本研究では,安定度を信頼性のある特徴帰属特性として解析する。
モデルが特徴のマスキングに関して十分リプシッツである場合、緩和された安定性の変種は保証される。
このようなモデルを実現するために,Multiplelicative Smoothing (MuS) と呼ばれる平滑化手法を開発した。
MuS は標準平滑化手法の理論的限界を克服し,任意の分類器や特徴属性法と統合可能であることを示す。
LIME や SHAP などの様々な特徴属性法による視覚モデルや言語モデル上で MuS を評価するとともに, MuS が非自明な安定性を保証する特徴属性を付与することを示す。
関連論文リスト
- Revisiting Demonstration Selection Strategies in In-Context Learning [69.43198898396211]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Decomposing Uncertainty for Large Language Models through Input
Clarification Ensembling [74.00331519233026]
大規模言語モデル(LLM)のための不確実性分解フレームワークを提案する。
我々のフレームワークは入力の一連の明確化を生成し、それらを固定LLMに入力し、対応する予測をアンサンブルする。
実験により,提案手法は様々なタスクに対して正確かつ確実な不確実性定量化を提供することを示した。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Bagging Provides Assumption-free Stability [19.79445334031092]
バギングは、機械学習モデルを安定化するための重要なテクニックである。
本稿では,任意のモデルに対するバギングの安定性に関する有限サンプル保証を導出する。
論文 参考訳(メタデータ) (2023-01-30T01:18:05Z) - Scalable Stochastic Parametric Verification with Stochastic Variational
Smoothed Model Checking [1.5293427903448025]
平滑モデル検査 (smMC) は, パラメータ空間全体の満足度関数を, 限られた観測値から推定することを目的としている。
本稿では,確率論的機械学習の最近の進歩を利用して,この限界を推し進める。
構成された満足度関数のスケーラビリティ,計算効率,精度を調べた結果,smMCとSV-smMCの性能を比較した。
論文 参考訳(メタデータ) (2022-05-11T10:43:23Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - On the Stochastic Stability of Deep Markov Models [2.417285483528549]
ディープマルコフモデル(ディープマルコフモデル、英: Deep Markov model、DMM)は、マルコフモデルの表現、学習、推論問題に対するスケーラブルな一般化である。
動的システムの文脈で定義されたDMMの確率安定性の十分な条件を提供する。
安定度を保証した制約付きDMMを設計するための実用的な方法をいくつか提案する。
論文 参考訳(メタデータ) (2021-11-08T16:14:37Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Learning Dynamics Models with Stable Invariant Sets [17.63040340961143]
本稿では,動的モデルが一般クラスの安定不変集合を持つことを保証する手法を提案する。
我々は容易に投影を計算し、同時に様々な可逆ニューラルネットワークを用いてモデルの柔軟性を維持することができる。
論文 参考訳(メタデータ) (2020-06-16T05:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。