論文の概要: Sparse and Faithful Explanations Without Sparse Models
- arxiv url: http://arxiv.org/abs/2402.09702v3
- Date: Sat, 9 Mar 2024 01:01:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 14:10:05.013862
- Title: Sparse and Faithful Explanations Without Sparse Models
- Title(参考訳): スパースモデルのないスパースかつ忠実な説明
- Authors: Yiyang Sun, Zhi Chen, Vittorio Orlandi, Tong Wang, Cynthia Rudin
- Abstract要約: 我々は、機械学習モデルにおける空間性を測定する新しい方法であるスパース説明値(SEV)を紹介する。
SEVは、全体的なモデルの疎さではなく、決定の疎さの尺度です。
たとえスパースでなくても、多くの機械学習モデルが実際に低い決定空間を持っていることを示す。
- 参考スコア(独自算出の注目度): 24.272096201062574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Even if a model is not globally sparse, it is possible for decisions made
from that model to be accurately and faithfully described by a small number of
features. For instance, an application for a large loan might be denied to
someone because they have no credit history, which overwhelms any evidence
towards their creditworthiness. In this work, we introduce the Sparse
Explanation Value (SEV), a new way of measuring sparsity in machine learning
models. In the loan denial example above, the SEV is 1 because only one factor
is needed to explain why the loan was denied. SEV is a measure of decision
sparsity rather than overall model sparsity, and we are able to show that many
machine learning models -- even if they are not sparse -- actually have low
decision sparsity, as measured by SEV. SEV is defined using movements over a
hypercube, allowing SEV to be defined consistently over various model classes,
with movement restrictions reflecting real-world constraints. We proposed the
algorithms that reduce SEV without sacrificing accuracy, providing sparse and
completely faithful explanations, even without globally sparse models.
- Abstract(参考訳): たとえモデルが世界規模で疎外されていなくても、そのモデルから決定されたことは、少数の機能によって正確かつ忠実に記述できる。
例えば、大口融資の申請は、信用履歴がないため、信用の信頼性に関する証拠を圧倒するため、誰かに拒否される可能性がある。
本研究では,機械学習モデルにおける空間性を測定する新しい手法であるスパース説明値(SEV)を紹介する。
上記のローン拒否例では、融資が拒否された理由を説明するのに1つの要素しか必要とされないため、sevは1である。
SEVは全体モデルの範囲ではなく、意思決定の間隔の尺度です。SEVが測定したように、たとえスパースでないとしても、多くの機械学習モデルが実際に低い決定の間隔を持っていることを示すことができます。
SEVはハイパーキューブ上の運動を用いて定義されており、実世界の制約を反映した運動制限を反映して、SEVを様々なモデルクラス上で一貫して定義することができる。
我々は、sevを精度を犠牲にすることなく削減し、グローバルにスパースモデルがなくても、スパースで完全に忠実な説明を提供するアルゴリズムを提案した。
関連論文リスト
- Learning Sparsity of Representations with Discrete Latent Variables [15.05207849434673]
本稿では,スパース深部潜伏生成モデルSDLGMを提案する。
表現の空間性は固定されていないが、事前に定義された制限の下で観察そのものに適合する。
推論と学習のために,MC勾配推定器をベースとした補正変分法を開発した。
論文 参考訳(メタデータ) (2023-04-03T12:47:18Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Predicting is not Understanding: Recognizing and Addressing
Underspecification in Machine Learning [47.651130958272155]
下位仕様とは、ドメイン内の精度で区別できない複数のモデルの存在を指す。
我々は、不特定概念を形式化し、それを特定し、部分的に対処する方法を提案する。
論文 参考訳(メタデータ) (2022-07-06T11:20:40Z) - Neural Pseudo-Label Optimism for the Bank Loan Problem [78.66533961716728]
本研究では,Emphbank 融資問題に最もよく表される分類問題について検討する。
線形モデルの場合、この問題はモデル予測に直接最適化を加えることで解決できる。
Pseudo-Label Optimism (PLOT)は,この設定をディープニューラルネットワークに適用するための概念的かつ計算学的にシンプルな手法である。
論文 参考訳(メタデータ) (2021-12-03T22:46:31Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - On the Efficacy of Small Self-Supervised Contrastive Models without
Distillation Signals [44.209171209780365]
小さなモデルは、自己教師付きコントラスト学習のパラダイムの下では、非常によく機能しない。
既存の方法は、通常、知識を知識蒸留を通じて小さなものに伝達するために、大きなオフ・ザ・シェルフモデルを採用する。
その効果にもかかわらず、蒸留法はいくつかの資源制限されたシナリオには適さないかもしれない。
論文 参考訳(メタデータ) (2021-07-30T17:10:05Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - A Holistic Approach to Interpretability in Financial Lending: Models,
Visualizations, and Summary-Explanations [25.05825112699133]
そのような機密性のない未来の世界では、正当な融資決定にどのような意思決定支援ツールを使いたいのか?
本稿では,グローバルな解釈可能な機械学習モデル,インタラクティブな可視化,および任意の決定に対するいくつかの要約と説明を含む,そのような決定のためのフレームワークを提案する。
私たちのフレームワークは、Explainable Machine Learning ChallengeでFICO認識賞を受賞しました。
論文 参考訳(メタデータ) (2021-06-04T17:05:25Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - A Novel Regression Loss for Non-Parametric Uncertainty Optimization [7.766663822644739]
不確実性の定量化は、安全な機械学習を確立する最も有望なアプローチの1つである。
これまでの最も一般的なアプローチの1つはモンテカルロドロップアウトで、計算量的に安価で、実際に簡単に適用できる。
この問題に対処するため,第2モーメント損失(UCI)と呼ばれる新たな目標を提案する。
論文 参考訳(メタデータ) (2021-01-07T19:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。