論文の概要: How Understanding Forecast Uncertainty Resolves the Explainability Problem in Machine Learning Models
- arxiv url: http://arxiv.org/abs/2602.00179v1
- Date: Fri, 30 Jan 2026 04:43:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.031301
- Title: How Understanding Forecast Uncertainty Resolves the Explainability Problem in Machine Learning Models
- Title(参考訳): 予測の不確かさの理解が機械学習モデルにおける説明可能性問題をいかに解決するか
- Authors: Joseph L. Breeden,
- Abstract要約: 局所線形手法は決定境界付近で不安定であるとして批判されている。
そのような懸念が問題の誤解を反映していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For applications of machine learning in critical decisions, explainability is a primary concern, and often a regulatory requirement. Local linear methods for generating explanations, such as LIME and SHAP, have been criticized for being unstable near decision boundaries. In this paper, we explain that such concerns reflect a misunderstanding of the problem. The forecast uncertainty is high at decision boundaries, so consequently, the explanatory instability is high. The correct approach is to change the sequence of events and questions being asked. Nonlinear models can be highly predictive in some regions while having little or no predictability in others. Therefore, the first question is whether a usable forecast exists. When there is a forecast with low enough uncertainty to be useful, an explanation can be sought via a local linear approximation. In such cases, the explanatory instability is correspondingly low. When no usable forecast exists, the decision must fall to a simpler overall model such as traditional logistic regression. Additionally, these results show that some methods that purport to be explainable everywhere, such as ReLU networks or any piecewise linear model, have only an illusory explainability, because the forecast uncertainty at the segment boundaries is too high to be useful. Explaining an unusable forecast is pointless.
- Abstract(参考訳): 批判的な決定における機械学習の応用にとって、説明責任は主要な関心事であり、しばしば規制要件である。
LIME や SHAP などの局所線形手法は決定境界付近で不安定であるとして批判されている。
本稿では,そのような懸念が問題の誤解を反映していると説明する。
予測の不確実性は決定境界において高いので、説明不安定性が高い。
正しいアプローチは、質問されるイベントと質問のシーケンスを変更することです。
非線形モデルは、いくつかの領域では高い予測性を持つが、他の領域ではほとんどあるいは全く予測不可能である。
したがって、第一の疑問は、使用可能な予測が存在するかどうかである。
有用で十分不確実性の低い予測がある場合、局所線形近似を用いて説明を求めることができる。
このような場合、説明不安定性が低い。
使用可能な予測が存在しない場合、決定は従来のロジスティック回帰のようなより単純な全体モデルに該当しなければならない。
さらに,これらの結果から,ReLUネットワークや任意の片方向線形モデルなど,至るところで説明可能な手法のいくつかは,セグメント境界における予測の不確実性が高いため,図示的な説明性しか持たないことが示唆された。
使用不可能な予測を説明することは無意味です。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
ガウス出力分布にニューラルネットワークを適用することにより,回帰の不確かさを予測分散として推定する。
このアプローチは、複雑な公表されたアプローチよりも確実に不確実性の影響を説明することができる。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Calibrated Explanations for Regression [1.2058600649065616]
回帰のための校正的説明は、高速で信頼性があり、安定し、堅牢な説明を提供する。
確率的回帰のための校正的説明は、説明を作成する全く新しい方法を提供する。
Pythonの実装はGitHubで無料で利用可能で、pipとcondaの両方を使ってインストールすることができる。
論文 参考訳(メタデータ) (2023-08-30T18:06:57Z) - Model Agnostic Local Explanations of Reject [6.883906273999368]
安全クリティカル領域における機械学習に基づく意思決定システムの応用には,信頼性の高い高精度な予測が必要である。
リジェクションオプションは、システムによってなされる予測の十分な高い確実性を保証する一般的な方法である。
本稿では,解釈可能なモデルと対実的説明を用いて任意の拒否オプションを局所的に説明するためのモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T12:42:34Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。