論文の概要: InstaSHAP: Interpretable Additive Models Explain Shapley Values Instantly
- arxiv url: http://arxiv.org/abs/2502.14177v1
- Date: Thu, 20 Feb 2025 01:11:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:29:34.670705
- Title: InstaSHAP: Interpretable Additive Models Explain Shapley Values Instantly
- Title(参考訳): InstaSHAP: 解釈可能な付加モデル
- Authors: James Enouen, Yan Liu,
- Abstract要約: Shapleyの価値とSHAPの説明は、ブラックボックスモデルのポストホックな説明を提供するための最も支配的なパラダイムの1つとして現れてきた。
理論的性質は十分に確立されているが、近年の多くの研究は計算効率と表現力の両方の限界に焦点を当てている。
本研究では,GAMモデルとSHAPの説明をリンクする変分的視点が,近年のほとんどすべての発展に深い洞察を与えることができることを示す。
- 参考スコア(独自算出の注目度): 8.62694928567939
- License:
- Abstract: In recent years, the Shapley value and SHAP explanations have emerged as one of the most dominant paradigms for providing post-hoc explanations of black-box models. Despite their well-founded theoretical properties, many recent works have focused on the limitations in both their computational efficiency and their representation power. The underlying connection with additive models, however, is left critically under-emphasized in the current literature. In this work, we find that a variational perspective linking GAM models and SHAP explanations is able to provide deep insights into nearly all recent developments. In light of this connection, we borrow in the other direction to develop a new method to train interpretable GAM models which are automatically purified to compute the Shapley value in a single forward pass. Finally, we provide theoretical results showing the limited representation power of GAM models is the same Achilles' heel existing in SHAP and discuss the implications for SHAP's modern usage in CV and NLP.
- Abstract(参考訳): 近年では、シャプリーの価値とSHAPの説明がブラックボックスモデルのポストホックな説明を提供する最も支配的なパラダイムの1つとして浮上している。
理論的性質は十分に確立されているが、近年の多くの研究は計算効率と表現力の両方の限界に焦点を当てている。
しかし、加法モデルとの根底にある関係は、現在の文献では批判的に強調されていない。
本研究では,GAMモデルとSHAPの説明をリンクする変分的視点が,近年のほとんどすべての発展に深い洞察を与えることができることを示す。
この接続を考慮に入れ、我々は1つのフォワードパスでShapley値を計算するために自動的に浄化される解釈可能なGAMモデルをトレーニングする新しい方法を開発するために、別の方向を借りる。
最後に,GAMモデルの限られた表現能力がSHAPに存在するアキレスのヒールと同じであることを示す理論的結果を提供し,CVおよびNLPにおけるSHAPの現代的利用の意義について論じる。
関連論文リスト
- Gnothi Seauton: Empowering Faithful Self-Interpretability in Black-Box Models [21.698201509643624]
概念に基づくネットワークのような自己解釈型モデルは、決定を人間の理解可能な概念に結びつけることによって洞察を与える。
シャプリー値のようなポストホック法は理論的には堅牢であるが、計算コストが高く、資源集約的である。
ブラックボックスモデルに対する理論的に保証された自己解釈性を提供する。
論文 参考訳(メタデータ) (2024-10-29T07:35:33Z) - Shapley Marginal Surplus for Strong Models [0.9831489366502301]
我々は、Shapley値がモデル予測の正確な説明であるが、機械学習モデル自体が真のデータ生成プロセス(DGP)の貧弱な説明であることを示している。
そこで,本研究では,特徴量から推定されるモデル空間を抽出する,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを導入する。
論文 参考訳(メタデータ) (2024-08-16T17:06:07Z) - Understanding Parameter Sharing in Transformers [53.75988363281843]
トランスフォーマーに関するこれまでの研究は、異なるレイヤでパラメータを共有することに集中しており、モデルの深さを増大させることで、限られたパラメータを持つモデルの性能を向上させることができる。
このアプローチの成功は, モデル複雑性の増加により, ごく一部に過ぎず, 収束性の向上に大きく寄与することを示す。
8つの機械翻訳タスクの実験結果から,パラメータ共有モデルのモデル複雑性を半分に抑えて,我々のモデルが競合性能を達成することが示された。
論文 参考訳(メタデータ) (2023-06-15T10:48:59Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Studying How to Efficiently and Effectively Guide Models with Explanations [52.498055901649025]
「モデルガイダンス」とは「正しい理由のために正しい」ことを保証するためにモデルの説明を規則化する考え方である。
PASCAL VOC 2007 および MS COCO 2014 データセット上で, 各種損失関数, 帰属方法, モデル, 誘導深度について詳細な評価を行う。
具体的には、一般的に使用されるセグメンテーションマスクよりもはるかに安価で入手可能なバウンディングボックスアノテーションを用いてモデルをガイドする。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Shapley variable importance cloud for machine learning models [4.1359299555083595]
最近開発されたShapley変数重要クラウド(ShapleyVIC)は、包括的で堅牢な変数重要度評価を提供する。
ShapleyVIC推論の利点は実生活予測タスクで実証されている。
より広範なアプリケーションを可能にする機械学習モデルのShapleyVIC実装。
論文 参考訳(メタデータ) (2022-12-16T09:45:22Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Shapley variable importance clouds for interpretable machine learning [2.830197032154301]
本報告では,最終モデルのSHAP解析におけるバイアス評価を回避するため,優れたモデルにまたがる情報をプールするShapley変数重要クラウドを提案する。
刑事司法データと電子カルテデータを用いたドン・アンド・ルーディン法とを比較検討した。
論文 参考訳(メタデータ) (2021-10-06T03:41:04Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z) - Explainable Deep Modeling of Tabular Data using TableGraphNet [1.376408511310322]
付加的特徴属性の形で説明可能な予測を生成する新しいアーキテクチャを提案する。
説明可能なモデルはブラックボックスモデルと同じレベルの性能が得られることを示す。
論文 参考訳(メタデータ) (2020-02-12T20:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。