論文の概要: Deletion and Insertion Tests in Regression Models
- arxiv url: http://arxiv.org/abs/2205.12423v1
- Date: Wed, 25 May 2022 00:55:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 12:31:00.017523
- Title: Deletion and Insertion Tests in Regression Models
- Title(参考訳): 回帰モデルにおける欠失と挿入テスト
- Authors: Naofumi Hama, Masayoshi Mase and Art B. Owen
- Abstract要約: 説明可能なAI(XAI)の基本課題は、ブラックボックス関数$f$による予測の背後にある最も重要な特徴を特定することである。
我々は、曲線(AUC)の基準の下で、特定の主要な効果と相互作用の観点から、それらの領域の式を確立する。
IG が Kernel SHAP に一致することを示すのは,$f$ が加法関数で変数の多重線型関数である場合である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A basic task in explainable AI (XAI) is to identify the most important
features behind a prediction made by a black box function $f$. The insertion
and deletion tests of \cite{petsiuk2018rise} are used to judge the quality of
algorithms that rank pixels from most to least important for a classification.
Motivated by regression problems we establish a formula for their area under
the curve (AUC) criteria in terms of certain main effects and interactions in
an anchored decomposition of $f$. We find an expression for the expected value
of the AUC under a random ordering of inputs to $f$ and propose an alternative
area above a straight line for the regression setting. We use this criterion to
compare feature importances computed by integrated gradients (IG) to those
computed by Kernel SHAP (KS). Exact computation of KS grows exponentially with
dimension, while that of IG grows linearly with dimension. In two data sets
including binary variables we find that KS is superior to IG in insertion and
deletion tests, but only by a very small amount. Our comparison problems
include some binary inputs that pose a challenge to IG because it must use
values between the possible variable levels.
We show that IG will match KS when $f$ is an additive function plus a
multilinear function of the variables. This includes a multilinear
interpolation over the binary variables that would cause IG to have exponential
cost in a naive implementation.
- Abstract(参考訳): 説明可能なAI(XAI)の基本課題は、ブラックボックス関数$f$による予測の背後にある最も重要な特徴を特定することである。
\cite{petsiuk2018rise}の挿入および削除テストは、分類において最も重要でないピクセルをランク付けするアルゴリズムの品質を判断するために使用される。
回帰問題によって動機づけられた我々は、曲線(AUC)の基準の下で、ある主効果と相互作用の観点から、その領域の式を$f$のアンカー分解で確立する。
入力を$f$にランダムに順序付けしたAUCの期待値に対する式を見つけ、回帰設定のために直線上の代替領域を提案する。
この基準を用いて,統合勾配 (ig) によって計算される特徴重要度をkernel shap (ks) で計算された特徴量と比較する。
KSの厳密な計算は次元で指数関数的に増加し、IGの計算は次元で直線的に成長する。
バイナリ変数を含む2つのデータセットでは、KSは挿入および削除テストにおいてIGよりも優れているが、ごく少量でしかない。
我々の比較問題には、可能な変数レベル間の値を使用する必要があるため、IGに挑戦するバイナリインプットが含まれている。
IGがKSと一致することを示すのは、$f$が加法関数+変数の多線型関数であるときである。
これにはバイナリ変数のマルチリニア補間が含まれており、igは単純な実装で指数関数的コストを発生させる。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Improved Algorithm for Adversarial Linear Mixture MDPs with Bandit
Feedback and Unknown Transition [71.33787410075577]
線形関数近似,未知遷移,および逆損失を用いた強化学習について検討した。
我々は高い確率で$widetildeO(dsqrtHS3K + sqrtHSAK)$ regretを実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T15:03:50Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - A Conditional Randomization Test for Sparse Logistic Regression in
High-Dimension [36.00360315353985]
emphCRT-logitは、変数蒸留ステップとデコレーションステップを組み合わせたアルゴリズムである。
本手法の理論的解析を行い,大規模な脳画像とゲノムデータセットの実験とともにシミュレーションにおける有効性を示す。
論文 参考訳(メタデータ) (2022-05-29T09:37:16Z) - Black-Box Generalization [31.80268332522017]
微分一般化によるブラックボックス学習のための最初の誤り解析を行う。
どちらの一般化も独立$d$,$K$であり、適切な選択の下では学習率がわずかに低下していることを示す。
論文 参考訳(メタデータ) (2022-02-14T17:14:48Z) - Planning and Learning with Adaptive Lookahead [74.39132848733847]
ポリシーイテレーション(PI)アルゴリズムは、欲求の一段階の改善と政策評価を交互に行う。
近年の文献では、複数段階のルックアヘッドポリシーの改善が、イテレーション毎の複雑さの増加を犠牲にして、よりコンバージェンス率の向上につながることが示されている。
本研究では,多段階の地平線を状態と推定値の関数として動的に適応する手法を初めて提案する。
論文 参考訳(メタデータ) (2022-01-28T20:26:55Z) - Correcting Momentum with Second-order Information [50.992629498861724]
最適積に$O(epsilon)$epsilon点を求める非臨界最適化のための新しいアルゴリズムを開発した。
我々は、さまざまな大規模ディープラーニングベンチマークとアーキテクチャで結果を検証する。
論文 参考訳(メタデータ) (2021-03-04T19:01:20Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - Statistical-Query Lower Bounds via Functional Gradients [19.5924910463796]
我々は、寛容$n- (1/epsilon)b$の統計クエリアルゴリズムは、一定の$bに対して少なくとも$2nc epsilon$クエリを使用する必要があることを示す。
実数値学習では珍しいSQ学習アルゴリズムが一般的である(相関学習とは対照的に)。
論文 参考訳(メタデータ) (2020-06-29T05:15:32Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。