論文の概要: Ensemble Multi-Quantile: Adaptively Flexible Distribution Prediction for
Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2211.14545v1
- Date: Sat, 26 Nov 2022 11:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:14:14.457383
- Title: Ensemble Multi-Quantile: Adaptively Flexible Distribution Prediction for
Uncertainty Quantification
- Title(参考訳): Ensemble Multi-Quantile:不確実性量子化のための適応フレキシブル分布予測
- Authors: Xing Yan, Yonghua Su, Wenxuan Ma
- Abstract要約: 本稿では,機械学習における不確実性を定量化するための,新しい,簡潔かつ効果的なアプローチを提案する。
回帰タスクで$mathbbP(mathbfy|mathbfX=x)$に対して適応的に柔軟な分布予測を組み込む。
- 参考スコア(独自算出の注目度): 4.728311759896569
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a novel, succinct, and effective approach to quantify uncertainty
in machine learning. It incorporates adaptively flexible distribution
prediction for $\mathbb{P}(\mathbf{y}|\mathbf{X}=x)$ in regression tasks. For
predicting this conditional distribution, its quantiles of probability levels
spreading the interval $(0,1)$ are boosted by additive models which are
designed by us with intuitions and interpretability. We seek an adaptive
balance between the structural integrity and the flexibility for
$\mathbb{P}(\mathbf{y}|\mathbf{X}=x)$, while Gaussian assumption results in a
lack of flexibility for real data and highly flexible approaches (e.g.,
estimating the quantiles separately without a distribution structure)
inevitably have drawbacks and may not lead to good generalization. This
ensemble multi-quantiles approach called EMQ proposed by us is totally
data-driven, and can gradually depart from Gaussian and discover the optimal
conditional distribution in the boosting. On extensive regression tasks from
UCI datasets, we show that EMQ achieves state-of-the-art performance comparing
to many recent uncertainty quantification methods including Gaussian
assumption-based, Bayesian methods, quantile regression-based, and traditional
tree models, under the metrics of calibration, sharpness, and tail-side
calibration. Visualization results show what we actually learn from the real
data and how, illustrating the necessity and the merits of such an ensemble
model.
- Abstract(参考訳): 本稿では,機械学習における不確実性を定量化する新しい,簡潔かつ効果的な手法を提案する。
これは回帰タスクに$\mathbb{p}(\mathbf{y}|\mathbf{x}=x)$の適応的柔軟な分布予測を組み込む。
この条件分布を予測するために、この間隔を$(0,1)$に広げる確率レベルの量子は、直観と解釈可能性を持つ設計の加法モデルによって促進される。
構造整合性と$\mathbb{P}(\mathbf{y}|\mathbf{X}=x)$の柔軟性の間の適応的バランスを求めるが、ガウスの仮定は実データに対する柔軟性の欠如と高度に柔軟なアプローチ(例えば、分布構造なしでは分位子を別々に推定するなど)が必然的に欠点を持ち、良い一般化には至らない。
EMQと呼ばれるこのアンサンブル方式は完全にデータ駆動であり、ガウスから徐々に離れ、ブーピングにおける最適条件分布を発見することができる。
UCIデータセットからの広範囲な回帰タスクにおいて、EMQは、キャリブレーション、シャープネス、テールサイドキャリブレーションの指標の下で、ガウス的仮定ベース、ベイズ的手法、量子回帰ベース、伝統的なツリーモデルを含む最近の不確実な定量化手法と比較して、最先端のパフォーマンスを達成することを示す。
可視化の結果、実際のデータから実際に何を学び、どのようにしてそのようなアンサンブルモデルの必要性とメリットを示すかが示される。
関連論文リスト
- Score-based generative models are provably robust: an uncertainty quantification perspective [4.396860522241307]
本研究では,スコアベース生成モデル (SGM) が実運用において複数の誤差源に対して確実に堅牢であることを示す。
我々の主要なツールは、ワッサーシュタイン不確実性伝播(WUP)定理である。
a) 有限サンプル近似による誤差, (b) 早期停止, (c) スコアマッチング対象選択, (d) スコア関数パラメトリゼーション, (e) 基準分布選択が生成モデルの品質に与える影響を示す。
論文 参考訳(メタデータ) (2024-05-24T17:50:17Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Sample Complexity of Variance-reduced Distributionally Robust Q-learning [17.96094201655567]
本稿では,分散性に頑健なQ-ラーニングアルゴリズムと,分散性に欠けるロバストなポリシーを効果的に学習できる分散性のあるQ-ラーニングアルゴリズムを2つ提案する。
一連の数値実験により、分布シフトの処理におけるアルゴリズムの理論的発見と効率性が確認された。
論文 参考訳(メタデータ) (2023-05-28T19:40:46Z) - Scalable Dynamic Mixture Model with Full Covariance for Probabilistic
Traffic Forecasting [16.04029885574568]
時間変化誤差過程に対するゼロ平均ガウス分布の動的混合を提案する。
提案手法は,学習すべきパラメータを数つ追加するだけで,既存のディープラーニングフレームワークにシームレスに統合することができる。
提案手法を交通速度予測タスク上で評価し,提案手法がモデル水平線を改良するだけでなく,解釈可能な時間相関構造も提供することを発見した。
論文 参考訳(メタデータ) (2022-12-10T22:50:00Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - Multivariate Probabilistic Regression with Natural Gradient Boosting [63.58097881421937]
多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
論文 参考訳(メタデータ) (2021-06-07T17:44:49Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Mean-Field Approximation to Gaussian-Softmax Integral with Application
to Uncertainty Estimation [23.38076756988258]
ディープニューラルネットワークにおける不確実性を定量化するための,新しい単一モデルに基づくアプローチを提案する。
平均場近似式を用いて解析的に難解な積分を計算する。
実験的に,提案手法は最先端の手法と比較して競合的に機能する。
論文 参考訳(メタデータ) (2020-06-13T07:32:38Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z) - CatBoostLSS -- An extension of CatBoost to probabilistic forecasting [91.3755431537592]
本稿では,不可変応答変数の条件分布全体を予測する新しいフレームワークを提案する。
CatBoostLSSは条件平均のみではなくパラメトリック分布のすべてのモーメントをモデル化する。
提案手法の利点を実証するシミュレーション研究と実世界の実例を共に提示する。
論文 参考訳(メタデータ) (2020-01-04T15:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。