論文の概要: Black-Box Anomaly Attribution
- arxiv url: http://arxiv.org/abs/2305.18440v1
- Date: Mon, 29 May 2023 01:42:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 21:05:13.277870
- Title: Black-Box Anomaly Attribution
- Title(参考訳): ブラックボックス異常帰属
- Authors: Tsuyoshi Id\'e, Naoki Abe
- Abstract要約: ブラックボックスの機械学習モデルが真の観察から逸脱したとき、その逸脱の背後にある理由について何を言えるだろうか?
これは、ビジネスまたは産業用AIアプリケーションのエンドユーザがよく問う、基本的でユビキタスな質問である。
「新たな可能性に基づく帰属の枠組みを「可能性補償」と呼ぶ。」
- 参考スコア(独自算出の注目度): 2.22999837458579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When the prediction of a black-box machine learning model deviates from the
true observation, what can be said about the reason behind that deviation? This
is a fundamental and ubiquitous question that the end user in a business or
industrial AI application often asks. The deviation may be due to a sub-optimal
black-box model, or it may be simply because the sample in question is an
outlier. In either case, one would ideally wish to obtain some form of
attribution score -- a value indicative of the extent to which an input
variable is responsible for the anomaly.
In the present paper we address this task of ``anomaly attribution,''
particularly in the setting in which the model is black-box and the training
data are not available. Specifically, we propose a novel likelihood-based
attribution framework we call the ``likelihood compensation (LC),'' in which
the responsibility score is equated with the correction on each input variable
needed to attain the highest possible likelihood. We begin by showing formally
why mainstream model-agnostic explanation methods, such as the local linear
surrogate modeling and Shapley values, are not designed to explain anomalies.
In particular, we show that they are ``deviation-agnostic,'' namely, that their
explanations are blind to the fact that there is a deviation in the model
prediction for the sample of interest. We do this by positioning these existing
methods under the unified umbrella of a function family we call the
``integrated gradient family.'' We validate the effectiveness of the proposed
LC approach using publicly available data sets. We also conduct a case study
with a real-world building energy prediction task and confirm its usefulness in
practice based on expert feedback.
- Abstract(参考訳): ブラックボックス機械学習モデルの予測が真の観測から逸脱したとき、その逸脱の背後にある理由について何を言えるだろうか?
これは、ビジネスまたは産業用AIアプリケーションのエンドユーザがよく問う、基本的でユビキタスな質問である。
偏差は準最適ブラックボックスモデルによるものかもしれないし、単に、問題のサンプルが外れやすいためかもしれない。
いずれの場合も、何らかの形の帰属スコアを得るのが理想的であり、これは入力変数がその異常に対してどの程度の責任があるかを示す値である。
本稿では, モデルがブラックボックスであり, トレーニングデータが利用できない設定において, この課題である<anomaly attribution'に対処する。
具体的には,最も高い確率を達成するのに必要な入力変数ごとに,責任スコアを補正と同等に設定した,`likelihood compensation (lc)' と呼ばれる新しい確率に基づく帰属フレームワークを提案する。
まず,局所線形サロゲートモデリングやシェープリー値といったモデル非依存な説明手法が異常を説明するために設計されていない理由を形式的に示す。
特に,'deviation-specific,'',すなわち'deviation-agnostic'であり,その説明は,興味のあるサンプルのモデル予測に偏りがあるという事実に盲目であることを示している。
関数ファミリの統一された傘の下にこれらの既存のメソッドを配置することでこれを実現します。
提案手法の有効性を,公開データセットを用いて検証した。
また,実世界の建築エネルギー予測タスクを用いてケーススタディを行い,専門家のフィードバックに基づいてその有用性を確認した。
関連論文リスト
- Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Predicting the Performance of Black-box LLMs through Self-Queries [60.87193950962585]
大規模言語モデル(LLM)は、AIシステムにおいてますます頼りになってきている。
本稿では、フォローアッププロンプトを使用し、異なる応答の確率を表現として捉え、ブラックボックス方式でLCMの特徴を抽出する。
これらの低次元表現上で線形モデルをトレーニングすると、インスタンスレベルでのモデル性能の信頼性を予測できることを示す。
論文 参考訳(メタデータ) (2025-01-02T22:26:54Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Generative Perturbation Analysis for Probabilistic Black-Box Anomaly
Attribution [2.22999837458579]
ブラックボックス回帰設定における確率的異常帰属の課題に対処する。
このタスクは、ブラックボックスモデル自体ではなくブラックボックス予測からの異常な逸脱を説明するため、標準的なXAI(説明可能なAI)シナリオとは異なる。
本稿では,確率的帰属属性を予測平均として計算するだけでなく,その不確かさを定量化するための,確率的帰属属性の新たな枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-09T04:59:06Z) - BELLA: Black box model Explanations by Local Linear Approximations [10.05944106581306]
我々は、回帰ブラックボックスモデルの個々の予測を説明するために、決定論的モデルに依存しないポストホックアプローチであるBELLAを提案する。
BELLAは特徴空間で訓練された線形モデルという形で説明を提供する。
BELLAは事実と反事実の両方を説明することができる。
論文 参考訳(メタデータ) (2023-05-18T21:22:23Z) - Anomaly Attribution with Likelihood Compensation [14.99385222547436]
本稿では,ブラックボックス回帰モデルの異常予測を説明するタスクについて述べる。
期待値からのモデル偏差が与えられた場合、各入力変数の責任スコアを推測する。
私たちの知る限りでは、これは真の価値ある異常なモデル偏差に対する責任スコアを計算する最初の原則化されたフレームワークです。
論文 参考訳(メタデータ) (2022-08-23T02:00:20Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Estimating g-Leakage via Machine Learning [34.102705643128004]
本稿では,ブラックボックスシナリオにおけるシステムの情報漏洩を推定する問題について考察する。
システムの内部は学習者にとって未知であり、分析するには複雑すぎると仮定される。
機械学習(ML)アルゴリズムを用いて,g-vulnerabilityをブラックボックスで推定する手法を提案する。
論文 参考訳(メタデータ) (2020-05-09T09:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。