論文の概要: Anomaly Attribution with Likelihood Compensation
- arxiv url: http://arxiv.org/abs/2208.10679v1
- Date: Tue, 23 Aug 2022 02:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:38:41.601081
- Title: Anomaly Attribution with Likelihood Compensation
- Title(参考訳): 様相補償による異常帰属
- Authors: Tsuyoshi Id\'e, Amit Dhurandhar, Ji\v{r}\'i Navr\'atil, Moninder
Singh, Naoki Abe
- Abstract要約: 本稿では,ブラックボックス回帰モデルの異常予測を説明するタスクについて述べる。
期待値からのモデル偏差が与えられた場合、各入力変数の責任スコアを推測する。
私たちの知る限りでは、これは真の価値ある異常なモデル偏差に対する責任スコアを計算する最初の原則化されたフレームワークです。
- 参考スコア(独自算出の注目度): 14.99385222547436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the task of explaining anomalous predictions of a
black-box regression model. When using a black-box model, such as one to
predict building energy consumption from many sensor measurements, we often
have a situation where some observed samples may significantly deviate from
their prediction. It may be due to a sub-optimal black-box model, or simply
because those samples are outliers. In either case, one would ideally want to
compute a ``responsibility score'' indicative of the extent to which an input
variable is responsible for the anomalous output. In this work, we formalize
this task as a statistical inverse problem: Given model deviation from the
expected value, infer the responsibility score of each of the input variables.
We propose a new method called likelihood compensation (LC), which is founded
on the likelihood principle and computes a correction to each input variable.
To the best of our knowledge, this is the first principled framework that
computes a responsibility score for real valued anomalous model deviations. We
apply our approach to a real-world building energy prediction task and confirm
its utility based on expert feedback.
- Abstract(参考訳): 本稿では,ブラックボックス回帰モデルの異常予測について説明する。
多くのセンサ測定からビルディングエネルギー消費量を予測するためにブラックボックスモデルを使用する場合、観測されたサンプルが予測から著しく逸脱する可能性がある場合が多い。
これは準最適ブラックボックスモデルによるものかもしれないし、単にサンプルが外れているためかもしれない。
いずれの場合も、'responsibility score''を計算して、入力変数が異常な出力に対してどの程度の責任があるかを示すのが理想的である。
本研究では,この課題を統計的逆問題として定式化し,予測値からモデル偏差を与えられた場合,各入力変数の責任スコアを推定する。
本稿では、確率原理に基づいて各入力変数の補正を算出し、確率補償(LC)と呼ばれる新しい手法を提案する。
私たちの知る限りでは、これは真の価値ある異常モデル偏差に対する責任スコアを計算する最初の原則付きフレームワークです。
提案手法を実世界の建築エネルギー予測タスクに適用し,専門家のフィードバックに基づいて実用性を確認する。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Generative Perturbation Analysis for Probabilistic Black-Box Anomaly
Attribution [2.22999837458579]
ブラックボックス回帰設定における確率的異常帰属の課題に対処する。
このタスクは、ブラックボックスモデル自体ではなくブラックボックス予測からの異常な逸脱を説明するため、標準的なXAI(説明可能なAI)シナリオとは異なる。
本稿では,確率的帰属属性を予測平均として計算するだけでなく,その不確かさを定量化するための,確率的帰属属性の新たな枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-09T04:59:06Z) - Black-Box Anomaly Attribution [13.455748795087493]
ブラックボックスの機械学習モデルが真の観察から逸脱したとき、その逸脱の背後にある理由について何を言えるだろうか?
これは、ビジネスまたは産業用AIアプリケーションのエンドユーザがよく問う、基本的でユビキタスな質問である。
「新たな可能性に基づく帰属の枠組みを「可能性補償」と呼ぶ。」
論文 参考訳(メタデータ) (2023-05-29T01:42:32Z) - $\Delta$-UQ: Accurate Uncertainty Quantification via Anchor
Marginalization [40.581619201120716]
予測モデルにおけるアンカーの概念を用いた新規で汎用的な不確実性推定器であるDelta$UQを提案する。
この不確実性は、入力データの不適切なサンプリングと固有のノイズと深く結びついているので、あらゆるシステムにおける完全な不確実性を評価することができる。
論文 参考訳(メタデータ) (2021-10-05T17:44:31Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - A Causal Lens for Peeking into Black Box Predictive Models: Predictive
Model Interpretation via Causal Attribution [3.3758186776249928]
予測モデルがブラックボックスであるような設定でこの問題に対処することを目指している。
我々は、ブラックボックス予測モデルをモデル出力に対する各モデル入力の因果効果を推定する問題と比較する。
モデル入力に対するモデル出力に対する責任の因果関係が、予測モデルを解釈し、その予測を説明するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-01T23:20:57Z) - Individual Calibration with Randomized Forecasting [116.2086707626651]
予測値がランダムに設定された場合,各サンプルのキャリブレーションは回帰設定で可能であることを示す。
我々は、個別の校正を強制する訓練目標を設計し、それをランダム化された回帰関数の訓練に使用する。
論文 参考訳(メタデータ) (2020-06-18T05:53:10Z) - Showing Your Work Doesn't Always Work [73.63200097493576]
『Show Your Work: Improved Reporting of Experimental Results』では、最高の学習モデルの有効性を報告している。
解析的にそれらの推定器は偏りがあり、エラーを起こしやすい仮定を用いていることを示す。
我々は、偏見のない代替案を導き、統計的シミュレーションから経験的な証拠で主張を裏付ける。
論文 参考訳(メタデータ) (2020-04-28T17:59:01Z) - Estimation of Accurate and Calibrated Uncertainties in Deterministic
models [0.8702432681310401]
我々は,決定論的予測を確率論的予測に変換する手法を考案した。
そのためには,そのようなモデルの精度と信頼性(校正)を損なう必要がある。
隠れたノイズを正確に回収できる合成データと、大規模な実世界のデータセットの両方について、いくつかの例を示す。
論文 参考訳(メタデータ) (2020-03-11T04:02:56Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。