論文の概要: Stability Guarantees for Feature Attributions with Multiplicative
Smoothing
- arxiv url: http://arxiv.org/abs/2307.05902v2
- Date: Thu, 26 Oct 2023 22:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 17:14:53.510557
- Title: Stability Guarantees for Feature Attributions with Multiplicative
Smoothing
- Title(参考訳): 乗法的平滑化による特徴属性の安定性保証
- Authors: Anton Xue, Rajeev Alur, Eric Wong
- Abstract要約: 我々は安定性を信頼性のある特徴帰属法の特性として分析する。
このようなモデルを実現するために,Multiplelicative Smoothing (MuS) と呼ばれる平滑化手法を開発した。
LIME や SHAP などの様々な特徴属性法による視覚モデルや言語モデル上で MuS を評価するとともに, MuS が非自明な安定性を保証する特徴属性を付与することを示す。
- 参考スコア(独自算出の注目度): 11.675168649032875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanation methods for machine learning models tend not to provide any
formal guarantees and may not reflect the underlying decision-making process.
In this work, we analyze stability as a property for reliable feature
attribution methods. We prove that relaxed variants of stability are guaranteed
if the model is sufficiently Lipschitz with respect to the masking of features.
We develop a smoothing method called Multiplicative Smoothing (MuS) to achieve
such a model. We show that MuS overcomes the theoretical limitations of
standard smoothing techniques and can be integrated with any classifier and
feature attribution method. We evaluate MuS on vision and language models with
various feature attribution methods, such as LIME and SHAP, and demonstrate
that MuS endows feature attributions with non-trivial stability guarantees.
- Abstract(参考訳): 機械学習モデルの説明方法は、正式な保証を提供しておらず、根底にある意思決定プロセスを反映しない傾向がある。
本研究では,安定度を信頼性のある特徴帰属特性として解析する。
モデルが特徴のマスキングに関して十分リプシッツである場合、緩和された安定性の変種は保証される。
このようなモデルを実現するために,Multiplelicative Smoothing (MuS) と呼ばれる平滑化手法を開発した。
MuS は標準平滑化手法の理論的限界を克服し,任意の分類器や特徴属性法と統合可能であることを示す。
LIME や SHAP などの様々な特徴属性法による視覚モデルや言語モデル上で MuS を評価するとともに, MuS が非自明な安定性を保証する特徴属性を付与することを示す。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Stability Evaluation via Distributional Perturbation Analysis [28.379994938809133]
分布摂動に基づく安定性評価基準を提案する。
我々の安定性評価基準は,エフェダデータの腐敗とエフェサブ人口シフトの両方に対処できる。
実証実験により,現実のアプリケーションにまたがる安定性評価基準の実用性を検証する。
論文 参考訳(メタデータ) (2024-05-06T06:47:14Z) - Distributionally Robust Policy and Lyapunov-Certificate Learning [13.38077406934971]
不確実なシステムに対する安定性を保証するコントローラの設計における重要な課題は、オンラインデプロイメント中のモデルパラメトリック不確実性の変化の正確な決定と適応である。
我々は、リアプノフ証明書の単調な減少を保証するために、リアプノフ微分チャンス制約を分布的に頑健に定式化することで、この問題に取り組む。
得られた閉ループシステムに対して、その平衡のグローバルな安定性は、アウト・オブ・ディストリビューションの不確実性があっても高い信頼性で証明できることを示す。
論文 参考訳(メタデータ) (2024-04-03T18:57:54Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Continuous Management of Machine Learning-Based Application Behavior [3.316045828362788]
機械学習モデルの非機能特性は、監視、検証、維持されなければならない。
MLベースのアプリケーションの安定な非機能動作を保証することを目的としたマルチモデルアプローチを提案する。
非機能的プロパティフェアネスに着目した実世界のシナリオで,我々のソリューションを実験的に評価した。
論文 参考訳(メタデータ) (2023-11-21T15:47:06Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Bagging Provides Assumption-free Stability [11.456416081243654]
バギングは、機械学習モデルを安定化するための重要なテクニックである。
本稿では,任意のモデルに対するバギングの安定性に関する有限サンプル保証を導出する。
論文 参考訳(メタデータ) (2023-01-30T01:18:05Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。