論文の概要: Uncertainty Quantification in Extreme Learning Machine: Analytical
Developments, Variance Estimates and Confidence Intervals
- arxiv url: http://arxiv.org/abs/2011.01704v1
- Date: Tue, 3 Nov 2020 13:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:25:01.700179
- Title: Uncertainty Quantification in Extreme Learning Machine: Analytical
Developments, Variance Estimates and Confidence Intervals
- Title(参考訳): 極端学習機械における不確かさの定量化:分析的展開、変数推定、信頼区間
- Authors: Fabian Guignard, Federico Amato and Mikhail Kanevski
- Abstract要約: 不確かさの定量化は、機械学習モデルの予測品質を評価するために不可欠である。
文献で提案されるほとんどの手法は、データに対して強い仮定を行い、入力重みのランダム性を無視したり、信頼区間推定におけるバイアス寄与を無視したりする。
本稿では,これらの制約を克服し,EMMの多様性の理解を向上させる新しい推定法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification is crucial to assess prediction quality of a
machine learning model. In the case of Extreme Learning Machines (ELM), most
methods proposed in the literature make strong assumptions on the data, ignore
the randomness of input weights or neglect the bias contribution in confidence
interval estimations. This paper presents novel estimations that overcome these
constraints and improve the understanding of ELM variability. Analytical
derivations are provided under general assumptions, supporting the
identification and the interpretation of the contribution of different
variability sources. Under both homoskedasticity and heteroskedasticity,
several variance estimates are proposed, investigated, and numerically tested,
showing their effectiveness in replicating the expected variance behaviours.
Finally, the feasibility of confidence intervals estimation is discussed by
adopting a critical approach, hence raising the awareness of ELM users
concerning some of their pitfalls. The paper is accompanied with a scikit-learn
compatible Python library enabling efficient computation of all estimates
discussed herein.
- Abstract(参考訳): 不確実性定量化は、機械学習モデルの予測品質を評価するために重要である。
エクストリームラーニングマシン(ELM)の場合、文献で提案されるほとんどの手法は、データに対して強い仮定を行い、入力重みのランダム性を無視するか、信頼区間推定におけるバイアス寄与を無視する。
本稿では,これらの制約を克服し,elm変動の理解を改善する新しい推定手法を提案する。
解析的導出は一般的な仮定の下で提供され、異なる変数源の同定と解釈を支援する。
ホモスケプタスティック性およびヘテロスケプタスティック性の両方の下で,予測分散挙動の再現性を示すいくつかの分散推定,検討,数値実験を行った。
最後に, 信頼区間推定の実現可能性について, 批判的アプローチを採用して考察し, 落とし穴のいくつかについて, ELM利用者の意識を高めた。
この論文にはscikit-learn互換のpythonライブラリが付属しており、ここで議論されているすべての見積もりを効率的に計算することができる。
関連論文リスト
- Negative impact of heavy-tailed uncertainty and error distributions on the reliability of calibration statistics for machine learning regression tasks [0.0]
重み付き不確実性および誤差分布に対して,MV,MSE,それらの信頼区間の推定は信頼性に欠けることが示されている。
同じ問題が、一般的なenceのような条件付きキャリブレーション統計にも影響することが期待されている。
論文 参考訳(メタデータ) (2024-02-15T16:05:35Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Toward Robust Uncertainty Estimation with Random Activation Functions [3.0586855806896045]
本稿では,ランダムアクティベーション関数(RAF)アンサンブルを用いた不確実性定量化手法を提案する。
RAF アンサンブルは、合成データセットと実世界のデータセットの両方において、最先端のアンサンブル不確実性定量化手法より優れている。
論文 参考訳(メタデータ) (2023-02-28T13:17:56Z) - Uncertainty Quantification for Traffic Forecasting: A Unified Approach [21.556559649467328]
不確実性は時系列予測タスクに不可欠な考慮事項である。
本研究では,交通予測の不確かさの定量化に焦点をあてる。
STUQ(Deep S-Temporal Uncertainity Quantification)を開発した。
論文 参考訳(メタデータ) (2022-08-11T15:21:53Z) - Evaluating Predictive Distributions: Does Bayesian Deep Learning Work? [45.290773422944866]
後続の予測分布は、点推定によって無視される不確実性を定量化する。
本稿では,このような予測を生成するエージェントの系統的評価を行うためのツールである,The Neural Testbedを紹介する。
論文 参考訳(メタデータ) (2021-10-09T18:54:02Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。