論文の概要: Bringing a Ruler Into the Black Box: Uncovering Feature Impact from
Individual Conditional Expectation Plots
- arxiv url: http://arxiv.org/abs/2109.02724v1
- Date: Mon, 6 Sep 2021 20:26:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 14:32:51.509144
- Title: Bringing a Ruler Into the Black Box: Uncovering Feature Impact from
Individual Conditional Expectation Plots
- Title(参考訳): ブラックボックスにルールを組み込む:個々の条件付き期待パターンから特徴的影響を明らかにする
- Authors: Andrew Yeh, Anhthy Ngo
- Abstract要約: 本稿では,ICEプロットから抽出したモデル非依存,性能非依存の特徴影響指標を提案する。
また,ディストリビューション点の影響を変動させるために,ICE特徴量の影響の分布内変異を導入する。
実世界のデータを用いて,ICE機能の効果をいくつかのタスクで実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As machine learning systems become more ubiquitous, methods for understanding
and interpreting these models become increasingly important. In particular,
practitioners are often interested both in what features the model relies on
and how the model relies on them--the feature's impact on model predictions.
Prior work on feature impact including partial dependence plots (PDPs) and
Individual Conditional Expectation (ICE) plots has focused on a visual
interpretation of feature impact. We propose a natural extension to ICE plots
with ICE feature impact, a model-agnostic, performance-agnostic feature impact
metric drawn out from ICE plots that can be interpreted as a close analogy to
linear regression coefficients. Additionally, we introduce an in-distribution
variant of ICE feature impact to vary the influence of out-of-distribution
points as well as heterogeneity and non-linearity measures to characterize
feature impact. Lastly, we demonstrate ICE feature impact's utility in several
tasks using real-world data.
- Abstract(参考訳): 機械学習システムがよりユビキタスになると、これらのモデルの理解と解釈の方法がますます重要になる。
特に、実践者は、モデルが依存する機能とモデルがどのようにそれらに依存しているかの両方に関心を持っている。
部分依存プロット(pdp)や個別条件期待プロット(ice)を含む機能影響に関する先行研究は、機能影響の視覚的解釈に焦点を当ててきた。
本稿では,ICEプロットから抽出したモデル非依存・性能非依存の特徴的影響指標であるICE特徴インパクトを用いたICEプロットの自然な拡張を提案し,線形回帰係数の近似として解釈できる。
さらに,その特徴を特徴付けるための不均一性や非線形性の測定値だけでなく,分布外点の影響も変化させるため,ICE機能の影響の分布内変種を導入する。
最後に、実世界のデータを用いて、ICE機能の効果をいくつかのタスクで実証する。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Do Finetti: On Causal Effects for Exchangeable Data [45.96632286841583]
データをi.i.d.に含まない環境での因果効果の推定について検討する。
我々は、独立因果関係の仮定を満たす交換可能なデータに焦点を当てる。
論文 参考訳(メタデータ) (2024-05-29T07:31:18Z) - CAFE: Conflict-Aware Feature-wise Explanations [12.428277452418621]
特徴属性法は、個々の入力特徴がモデル出力に与える影響を決定することによって、ニューラルモデルを説明するために広く用いられている。
本稿では,既存手法の3つの制約に対処する新しい特徴属性法であるCAFE(Conflict-Aware Feature-wise Explanations)を提案する。
論文 参考訳(メタデータ) (2023-10-31T11:14:26Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - Causal Discovery in Physical Systems from Videos [123.79211190669821]
因果発見は人間の認知の中心にある。
本研究では,ビデオの因果発見の課題を,地層構造を監督せずにエンドツーエンドで検討する。
論文 参考訳(メタデータ) (2020-07-01T17:29:57Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z) - Nonparametric Feature Impact and Importance [0.6123324869194193]
データ上で直接動作する部分依存曲線から導かれる特徴的影響と重要性の数学的定義を与える。
品質を評価するために、これらの定義によってランク付けされた特徴は、既存の特徴選択技術と競合することを示す。
論文 参考訳(メタデータ) (2020-06-08T17:07:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。