論文の概要: Generative Perturbation Analysis for Probabilistic Black-Box Anomaly
Attribution
- arxiv url: http://arxiv.org/abs/2308.04708v1
- Date: Wed, 9 Aug 2023 04:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 15:00:07.873190
- Title: Generative Perturbation Analysis for Probabilistic Black-Box Anomaly
Attribution
- Title(参考訳): 確率的ブラックボックス異常属性の生成摂動解析
- Authors: Tsuyoshi Id\'e and Naoki Abe
- Abstract要約: ブラックボックス回帰設定における確率的異常帰属の課題に対処する。
このタスクは、ブラックボックスモデル自体ではなくブラックボックス予測からの異常な逸脱を説明するため、標準的なXAI(説明可能なAI)シナリオとは異なる。
本稿では,確率的帰属属性を予測平均として計算するだけでなく,その不確かさを定量化するための,確率的帰属属性の新たな枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.22999837458579
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We address the task of probabilistic anomaly attribution in the black-box
regression setting, where the goal is to compute the probability distribution
of the attribution score of each input variable, given an observed anomaly. The
training dataset is assumed to be unavailable. This task differs from the
standard XAI (explainable AI) scenario, since we wish to explain the anomalous
deviation from a black-box prediction rather than the black-box model itself.
We begin by showing that mainstream model-agnostic explanation methods, such
as the Shapley values, are not suitable for this task because of their
``deviation-agnostic property.'' We then propose a novel framework for
probabilistic anomaly attribution that allows us to not only compute
attribution scores as the predictive mean but also quantify the uncertainty of
those scores. This is done by considering a generative process for
perturbations that counter-factually bring the observed anomalous observation
back to normalcy. We introduce a variational Bayes algorithm for deriving the
distributions of per variable attribution scores. To the best of our knowledge,
this is the first probabilistic anomaly attribution framework that is free from
being deviation-agnostic.
- Abstract(参考訳): ここでは,各入力変数の帰属スコアの確率分布を計算することを目的として,ブラックボックス回帰設定における確率的帰属の課題に対処する。
トレーニングデータセットは利用できないと仮定される。
このタスクは、ブラックボックスモデル自体ではなくブラックボックス予測からの異常な逸脱を説明するため、標準的なXAI(説明可能なAI)シナリオとは異なる。
まず,Shapley値などの主流モデル非依存的説明手法が,その ``deviation-agnostic property' のため,この課題に適さないことを示す。
次に,確率的異常帰属のための新しい枠組みを提案し,帰属スコアを予測平均として計算するだけでなく,その不確かさを定量化する。
これは、観測された異常な観測を正常に戻す摂動の生成過程を考えることによって行われる。
本稿では,変数属性毎の分布を導出する変分ベイズアルゴリズムを提案する。
我々の知る限りでは、これは偏差に依存しない最初の確率的異常帰属フレームワークである。
関連論文リスト
- Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Invariant Probabilistic Prediction [45.90606906307022]
任意の分布シフトは、一般に不変かつ頑健な確率的予測を認めないことを示す。
Invariant probabilistic predictions called IPP, and study the consistency of the underlying parameters。
論文 参考訳(メタデータ) (2023-09-18T18:50:24Z) - Deep Evidential Learning for Bayesian Quantile Regression [3.6294895527930504]
1つの決定論的フォワードパスモデルから正確な不確実性を推定することが望ましい。
本稿では,ガウス的仮定を使わずに連続目標分布の量子化を推定できるディープベイズ量子回帰モデルを提案する。
論文 参考訳(メタデータ) (2023-08-21T11:42:16Z) - Variational Prediction [95.00085314353436]
本稿では,変動境界を用いた後部予測分布に対する変動近似の学習手法を提案する。
このアプローチは、テスト時間の限界化コストを伴わずに、優れた予測分布を提供することができる。
論文 参考訳(メタデータ) (2023-07-14T18:19:31Z) - Black-Box Anomaly Attribution [13.455748795087493]
ブラックボックスの機械学習モデルが真の観察から逸脱したとき、その逸脱の背後にある理由について何を言えるだろうか?
これは、ビジネスまたは産業用AIアプリケーションのエンドユーザがよく問う、基本的でユビキタスな質問である。
「新たな可能性に基づく帰属の枠組みを「可能性補償」と呼ぶ。」
論文 参考訳(メタデータ) (2023-05-29T01:42:32Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Anomaly Attribution with Likelihood Compensation [14.99385222547436]
本稿では,ブラックボックス回帰モデルの異常予測を説明するタスクについて述べる。
期待値からのモデル偏差が与えられた場合、各入力変数の責任スコアを推測する。
私たちの知る限りでは、これは真の価値ある異常なモデル偏差に対する責任スコアを計算する最初の原則化されたフレームワークです。
論文 参考訳(メタデータ) (2022-08-23T02:00:20Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Estimation of Accurate and Calibrated Uncertainties in Deterministic
models [0.8702432681310401]
我々は,決定論的予測を確率論的予測に変換する手法を考案した。
そのためには,そのようなモデルの精度と信頼性(校正)を損なう必要がある。
隠れたノイズを正確に回収できる合成データと、大規模な実世界のデータセットの両方について、いくつかの例を示す。
論文 参考訳(メタデータ) (2020-03-11T04:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。