論文の概要: Exploring Local Explanations of Nonlinear Models Using Animated Linear
Projections
- arxiv url: http://arxiv.org/abs/2205.05359v3
- Date: Fri, 19 Jan 2024 01:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 19:53:25.509347
- Title: Exploring Local Explanations of Nonlinear Models Using Animated Linear
Projections
- Title(参考訳): アニメーション線形射影を用いた非線形モデルの局所的説明
- Authors: Nicholas Spyrison, Dianne Cook, Przemyslaw Biecek
- Abstract要約: eXplainable AI(XAI)を使用して、モデルが予測器を使用して予測に到達する方法を示す。
予測器間の相互作用が変数重要度推定にどのように影響するかを理解するために,LVAを線形射影に変換することができる。
このアプローチは、分類学的(ペンギン種、チョコレートタイプ)と定量的(靴と足の給与、住宅価格)の応答モデルから例を示します。
- 参考スコア(独自算出の注目度): 5.524804393257921
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increased predictive power of machine learning models comes at the cost
of increased complexity and loss of interpretability, particularly in
comparison to parametric statistical models. This trade-off has led to the
emergence of eXplainable AI (XAI) which provides methods, such as local
explanations (LEs) and local variable attributions (LVAs), to shed light on how
a model use predictors to arrive at a prediction. These provide a point
estimate of the linear variable importance in the vicinity of a single
observation. However, LVAs tend not to effectively handle association between
predictors. To understand how the interaction between predictors affects the
variable importance estimate, we can convert LVAs into linear projections and
use the radial tour. This is also useful for learning how a model has made a
mistake, or the effect of outliers, or the clustering of observations. The
approach is illustrated with examples from categorical (penguin species,
chocolate types) and quantitative (soccer/football salaries, house prices)
response models. The methods are implemented in the R package cheem, available
on CRAN.
- Abstract(参考訳): 機械学習モデルの予測能力の増大は、特にパラメトリック統計モデルと比較して、複雑さの増大と解釈可能性の喪失のコストが伴う。
このトレードオフによってeXplainable AI(XAI)が出現し、モデルが予測子を使用して予測に到達する方法を明らかにするために、ローカル説明(LE)やローカル変数属性(LVA)などの方法を提供する。
これらは、単一の観測近傍における線形変数の重要性をポイント推定する。
しかし、LVAは予測器間の関係を効果的に扱わない傾向がある。
予測器間の相互作用が変数重要度推定にどのように影響するかを理解するために,LVAを線形射影に変換し,ラジアルツアーを利用する。
これはまた、モデルがどのように過ちを犯したか、または外れ値の影響、あるいは観測のクラスタリングを学習するのにも有用である。
このアプローチは、カテゴリー(penguin種、チョコレートタイプ)と量的(soccer/football salaries、house prices)の反応モデルからの例で示される。
これらのメソッドは、CRANで利用可能なRパッケージのcheemで実装されている。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Theoretical Evaluation of Asymmetric Shapley Values for Root-Cause
Analysis [0.0]
非対称シェープ値 (ASV) は、一般的なSHAP付加的局所的説明法の変種である。
局所的な貢献が分散還元のグローバルな貢献とどのように対応するかを示す。
一般化加法モデル (GAM) を, ASV が望ましい特性を示す制限クラスとして同定する。
論文 参考訳(メタデータ) (2023-10-15T21:40:16Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Lazy Estimation of Variable Importance for Large Neural Networks [22.95405462638975]
そこで本研究では,重要な推論保証付き縮小モデルを高速かつフレキシブルに近似する手法を提案する。
いくつかのデータ生成体制下では,本手法が高速かつ正確であることを示し,季節風予報の例で実世界の適用性を示す。
論文 参考訳(メタデータ) (2022-07-19T06:28:17Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Gaussian Function On Response Surface Estimation [12.35564140065216]
メタモデリング手法によるブラックボックス機械学習モデルの解釈(機能とサンプル)のための新しいフレームワークを提案する。
メタモデルは、興味のある領域のデータサンプルでコンピュータ実験を実行することによって、訓練された複雑なモデルによって生成されたデータから推定することができる。
論文 参考訳(メタデータ) (2021-01-04T04:47:00Z) - A Locally Adaptive Interpretable Regression [7.4267694612331905]
線形回帰は最も解釈可能な予測モデルの一つである。
本稿では,局所適応型解釈型回帰(LoAIR)を導入する。
我々のモデルは、他の最先端のベースラインと同等またはより良い予測性能を達成する。
論文 参考訳(メタデータ) (2020-05-07T09:26:14Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。