論文の概要: Local Model Explanations and Uncertainty Without Model Access
- arxiv url: http://arxiv.org/abs/2301.05761v1
- Date: Fri, 13 Jan 2023 21:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 19:01:08.717974
- Title: Local Model Explanations and Uncertainty Without Model Access
- Title(参考訳): モデルアクセスのない局所モデル記述と不確かさ
- Authors: Surin Ahn, Justin Grana, Yafet Tamene, Kristian Holsheimer
- Abstract要約: 本稿では,機械学習モデルに対するポストホックな説明と不確実性区間を生成するためのモデル非依存アルゴリズムを提案する。
提案アルゴリズムは,局所回帰を用いたナイーブな説明を構築し,ブートストラップ手法を用いて説明の不確かさを定量化する。
従来の回帰分析から得られた信頼区間と比較して,提案アルゴリズムが生成する不確実区間は,区間幅と範囲確率とのトレードオフが良好であることを示す。
- 参考スコア(独自算出の注目度): 0.44241702149260353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a model-agnostic algorithm for generating post-hoc explanations
and uncertainty intervals for a machine learning model when only a sample of
inputs and outputs from the model is available, rather than direct access to
the model itself. This situation may arise when model evaluations are
expensive; when privacy, security and bandwidth constraints are imposed; or
when there is a need for real-time, on-device explanations. Our algorithm
constructs explanations using local polynomial regression and quantifies the
uncertainty of the explanations using a bootstrapping approach. Through a
simulation study, we show that the uncertainty intervals generated by our
algorithm exhibit a favorable trade-off between interval width and coverage
probability compared to the naive confidence intervals from classical
regression analysis. We further demonstrate the capabilities of our method by
applying it to black-box models trained on two real datasets.
- Abstract(参考訳): 本稿では,モデル自体に直接アクセスするのではなく,モデルからの入力と出力のサンプルが利用可能である場合にのみ,機械学習モデルに対する時間後説明と不確実区間を生成するモデル非依存アルゴリズムを提案する。
この状況は、モデル評価が高価である場合、プライバシ、セキュリティ、帯域幅の制約が課される場合、あるいはリアルタイムでオンデバイスな説明が必要な場合などである。
本アルゴリズムは局所多項式回帰を用いて説明を構築し,ブートストラップ手法を用いて説明の不確かさを定量化する。
シミュレーション実験により,提案アルゴリズムが生成した不確かさ間隔は,古典回帰分析から得られた有意な信頼区間と比較して,区間幅と被覆確率とのトレードオフが良好であることを示す。
さらに、2つの実データセットで訓練されたブラックボックスモデルに適用することで、本手法の能力を実証する。
関連論文リスト
- Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - ALUM: Adversarial Data Uncertainty Modeling from Latent Model
Uncertainty Compensation [25.67258563807856]
本稿では,モデル不確実性とデータ不確実性を扱うALUMという新しい手法を提案する。
提案するALUMはモデルに依存しないため,オーバーヘッドの少ない既存のディープモデルに容易に実装できる。
論文 参考訳(メタデータ) (2023-03-29T17:24:12Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Uncertainty Quantification for Rule-Based Models [0.03807314298073299]
ルールベースの分類モデルは、確率をモデル化し、統計モデルのように予測に変換するのではなく、直接値を予測する。
本稿では,二項出力を持つ二項分類器をブラックボックスとして扱うメタモデルの形で不確実な定量化フレームワークを提案し,その推定に対する信頼度とともに,与えられた入力におけるそのベースモデルの予測精度を推定する。
論文 参考訳(メタデータ) (2022-11-03T15:50:09Z) - Monitoring Model Deterioration with Explainable Uncertainty Estimation
via Non-parametric Bootstrap [0.0]
一度デプロイされた機械学習モデルを監視することは難しい。
ラベル付きデータが到達範囲を超えている場合、実際のシナリオでモデルをいつ再トレーニングするかを判断するのはさらに難しい。
本研究では,非パラメトリックブートストラップ型不確実性推定とSHAP値を用いて説明可能な不確実性推定を行う。
論文 参考訳(メタデータ) (2022-01-27T17:23:04Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Bayesian Imaging With Data-Driven Priors Encoded by Neural Networks:
Theory, Methods, and Algorithms [2.266704469122763]
本稿では,事前知識がトレーニングデータとして利用可能である逆問題に対して,ベイズ推定を行う新しい手法を提案する。
容易に検証可能な条件下で,関連する後方モーメントの存在と適切性を確立する。
モデル精度解析により、データ駆動モデルによって報告されるベイズ確率は、頻繁な定義の下で著しく正確であることが示された。
論文 参考訳(メタデータ) (2021-03-18T11:34:08Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Causal Modeling with Stochastic Confounders [11.881081802491183]
この作業は、共同設立者との因果推論を拡張します。
本稿では,ランダムな入力空間を持つ表現子定理に基づく因果推論のための変分推定手法を提案する。
論文 参考訳(メタデータ) (2020-04-24T00:34:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。