論文の概要: Sparse and Faithful Explanations Without Sparse Models
- arxiv url: http://arxiv.org/abs/2402.09702v2
- Date: Mon, 4 Mar 2024 17:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 00:08:23.052456
- Title: Sparse and Faithful Explanations Without Sparse Models
- Title(参考訳): スパースモデルのないスパースかつ忠実な説明
- Authors: Yiyang Sun, Zhi Chen, Vittorio Orlandi, Tong Wang, Cynthia Rudin
- Abstract要約: 我々は、機械学習モデルにおける空間性を測定する新しい方法であるスパース説明値(SEV)を紹介する。
SEVは、全体的なモデルの疎さではなく、決定の疎さの尺度です。
たとえスパースでなくても、多くの機械学習モデルが実際に低い決定空間を持っていることを示す。
- 参考スコア(独自算出の注目度): 24.272096201062574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Even if a model is not globally sparse, it is possible for decisions made
from that model to be accurately and faithfully described by a small number of
features. For instance, an application for a large loan might be denied to
someone because they have no credit history, which overwhelms any evidence
towards their creditworthiness. In this work, we introduce the Sparse
Explanation Value (SEV), a new way of measuring sparsity in machine learning
models. In the loan denial example above, the SEV is 1 because only one factor
is needed to explain why the loan was denied. SEV is a measure of decision
sparsity rather than overall model sparsity, and we are able to show that many
machine learning models -- even if they are not sparse -- actually have low
decision sparsity, as measured by SEV. SEV is defined using movements over a
hypercube, allowing SEV to be defined consistently over various model classes,
with movement restrictions reflecting real-world constraints. We proposed the
algorithms that reduce SEV without sacrificing accuracy, providing sparse and
completely faithful explanations, even without globally sparse models.
- Abstract(参考訳): たとえモデルが世界規模で疎外されていなくても、そのモデルから決定されたことは、少数の機能によって正確かつ忠実に記述できる。
例えば、大口融資の申請は、信用履歴がないため、信用の信頼性に関する証拠を圧倒するため、誰かに拒否される可能性がある。
本研究では,機械学習モデルにおける空間性を測定する新しい手法であるスパース説明値(SEV)を紹介する。
上記のローン拒否例では、融資が拒否された理由を説明するのに1つの要素しか必要とされないため、sevは1である。
SEVは全体モデルの範囲ではなく、意思決定の間隔の尺度です。SEVが測定したように、たとえスパースでないとしても、多くの機械学習モデルが実際に低い決定の間隔を持っていることを示すことができます。
SEVはハイパーキューブ上の運動を用いて定義されており、実世界の制約を反映した運動制限を反映して、SEVを様々なモデルクラス上で一貫して定義することができる。
我々は、sevを精度を犠牲にすることなく削減し、グローバルにスパースモデルがなくても、スパースで完全に忠実な説明を提供するアルゴリズムを提案した。
関連論文リスト
- Graphical Modelling without Independence Assumptions for Uncentered Data [0.30723404270319693]
ゼロ平均仮定がモデリングにおいて過度な誤りを引き起こすことを示す。
具体的には,そのような誤りを回避できるゼロ平均仮定の緩和を提案する。
論文 参考訳(メタデータ) (2024-08-05T11:40:23Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Predicting is not Understanding: Recognizing and Addressing
Underspecification in Machine Learning [47.651130958272155]
下位仕様とは、ドメイン内の精度で区別できない複数のモデルの存在を指す。
我々は、不特定概念を形式化し、それを特定し、部分的に対処する方法を提案する。
論文 参考訳(メタデータ) (2022-07-06T11:20:40Z) - Neural Pseudo-Label Optimism for the Bank Loan Problem [78.66533961716728]
本研究では,Emphbank 融資問題に最もよく表される分類問題について検討する。
線形モデルの場合、この問題はモデル予測に直接最適化を加えることで解決できる。
Pseudo-Label Optimism (PLOT)は,この設定をディープニューラルネットワークに適用するための概念的かつ計算学的にシンプルな手法である。
論文 参考訳(メタデータ) (2021-12-03T22:46:31Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - A Holistic Approach to Interpretability in Financial Lending: Models,
Visualizations, and Summary-Explanations [25.05825112699133]
そのような機密性のない未来の世界では、正当な融資決定にどのような意思決定支援ツールを使いたいのか?
本稿では,グローバルな解釈可能な機械学習モデル,インタラクティブな可視化,および任意の決定に対するいくつかの要約と説明を含む,そのような決定のためのフレームワークを提案する。
私たちのフレームワークは、Explainable Machine Learning ChallengeでFICO認識賞を受賞しました。
論文 参考訳(メタデータ) (2021-06-04T17:05:25Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Learning Interpretable Models Using Uncertainty Oracles [12.879371384378164]
解釈可能なモデルの望ましい性質は、人間によって容易に理解できるように、小さなサイズである。
a) 小さいサイズが正確さを暗示し、(b) サイズを制限するモデルファミリが提供するビースルークレバーは、望ましいサイズ精度のトレードオフに達するには不十分である。
論文 参考訳(メタデータ) (2019-06-17T05:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。