論文の概要: Exploring Local Explanations of Nonlinear Models Using Animated Linear
Projections
- arxiv url: http://arxiv.org/abs/2205.05359v1
- Date: Wed, 11 May 2022 09:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 16:46:08.008574
- Title: Exploring Local Explanations of Nonlinear Models Using Animated Linear
Projections
- Title(参考訳): アニメーション線形射影を用いた非線形モデルの局所的説明
- Authors: Nicholas Spyrison and Dianne Cook
- Abstract要約: XAIは、モデルが予測器を使ってローカルな説明で予測に到達する方法に光を当てようとしている。
いずれの事例においても, インタラクティブな線形射影を記述し, カテゴリー的(ペンギン種, チョコレート種) および定量的(靴・足の給与, 住宅価格) な出力の例を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increased predictive power of nonlinear models comes at the cost of
interpretability of its terms. This trade-off has led to the emergence of
eXplainable AI (XAI). XAI attempts to shed light on how models use predictors
to arrive at a prediction with local explanations, a point estimate of the
linear feature importance in the vicinity of one instance. These can be
considered linear projections and can be further explored to understand better
the interactions between features used to make predictions across the
predictive model surface. Here we describe interactive linear interpolation
used for exploration at any instance and illustrate with examples with
categorical (penguin species, chocolate types) and quantitative
(soccer/football salaries, house prices) output. The methods are implemented in
the R package cheem, available on CRAN.
- Abstract(参考訳): 非線形モデルの予測能力の増大は、その項の解釈可能性のコストがかかる。
このトレードオフは、eXplainable AI(XAI)の出現につながった。
xaiは、モデルがどのように予測器を使って局所的な説明で予測し、あるインスタンスの近傍における線形特徴の重要性をポイント見積りするかについて、光を当てようとしている。
これらは線形射影と見なすことができ、予測モデル表面を横断する予測を行うために使われる特徴間の相互作用をよりよく理解するためにさらに研究することができる。
ここでは, いずれの事例においても, 対話的線形補間を行い, カテゴリー的(ペンギン種, チョコレート種) および定量的(靴・足の給与, 住宅価格) な出力の例を示す。
これらのメソッドは、CRANで利用可能なRパッケージのcheemで実装されている。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Theoretical Evaluation of Asymmetric Shapley Values for Root-Cause
Analysis [0.0]
非対称シェープ値 (ASV) は、一般的なSHAP付加的局所的説明法の変種である。
局所的な貢献が分散還元のグローバルな貢献とどのように対応するかを示す。
一般化加法モデル (GAM) を, ASV が望ましい特性を示す制限クラスとして同定する。
論文 参考訳(メタデータ) (2023-10-15T21:40:16Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Lazy Estimation of Variable Importance for Large Neural Networks [22.95405462638975]
そこで本研究では,重要な推論保証付き縮小モデルを高速かつフレキシブルに近似する手法を提案する。
いくつかのデータ生成体制下では,本手法が高速かつ正確であることを示し,季節風予報の例で実世界の適用性を示す。
論文 参考訳(メタデータ) (2022-07-19T06:28:17Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Gaussian Function On Response Surface Estimation [12.35564140065216]
メタモデリング手法によるブラックボックス機械学習モデルの解釈(機能とサンプル)のための新しいフレームワークを提案する。
メタモデルは、興味のある領域のデータサンプルでコンピュータ実験を実行することによって、訓練された複雑なモデルによって生成されたデータから推定することができる。
論文 参考訳(メタデータ) (2021-01-04T04:47:00Z) - A Locally Adaptive Interpretable Regression [7.4267694612331905]
線形回帰は最も解釈可能な予測モデルの一つである。
本稿では,局所適応型解釈型回帰(LoAIR)を導入する。
我々のモデルは、他の最先端のベースラインと同等またはより良い予測性能を達成する。
論文 参考訳(メタデータ) (2020-05-07T09:26:14Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。