論文の概要: Multivariate Probabilistic Regression with Natural Gradient Boosting
- arxiv url: http://arxiv.org/abs/2106.03823v1
- Date: Mon, 7 Jun 2021 17:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:21:57.910936
- Title: Multivariate Probabilistic Regression with Natural Gradient Boosting
- Title(参考訳): 自然グラディエントブースティングによる多変量確率回帰
- Authors: Michael O'Malley, Adam M. Sykulski, Rick Lumpkin, Alejandro Schuler
- Abstract要約: 多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
- 参考スコア(独自算出の注目度): 63.58097881421937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many single-target regression problems require estimates of uncertainty along
with the point predictions. Probabilistic regression algorithms are well-suited
for these tasks. However, the options are much more limited when the prediction
target is multivariate and a joint measure of uncertainty is required. For
example, in predicting a 2D velocity vector a joint uncertainty would quantify
the probability of any vector in the plane, which would be more expressive than
two separate uncertainties on the x- and y- components. To enable joint
probabilistic regression, we propose a Natural Gradient Boosting (NGBoost)
approach based on nonparametrically modeling the conditional parameters of the
multivariate predictive distribution. Our method is robust, works
out-of-the-box without extensive tuning, is modular with respect to the assumed
target distribution, and performs competitively in comparison to existing
approaches. We demonstrate these claims in simulation and with a case study
predicting two-dimensional oceanographic velocity data. An implementation of
our method is available at https://github.com/stanfordmlgroup/ngboost.
- Abstract(参考訳): 単一目標回帰問題の多くは、点予測とともに不確実性の推定を必要とする。
確率回帰アルゴリズムはこれらのタスクに適している。
しかし、予測対象が多変量であり、不確実性のジョイント尺度が必要な場合、選択肢ははるかに制限される。
例えば、2次元の速度ベクトルを予測するとき、ジョイントの不確かさは平面内の任意のベクトルの確率を定量化し、x- と y-成分の2つの別々の不確かさよりも表現的になる。
連立確率回帰を実現するために,多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost)アプローチを提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
これらの主張をシミュレーションおよび2次元海洋速度データを予測したケーススタディで実証する。
このメソッドの実装はhttps://github.com/stanfordmlgroup/ngboostで利用可能です。
関連論文リスト
- Quantifying predictive uncertainty of aphasia severity in stroke
patients with sparse heteroscedastic Bayesian high-dimensional regression [49.504432873468254]
高次元データに対する疎線型回帰法は、通常、残留物が一定の分散を持つと仮定するが、これは実際には破ることができる。
本稿では,ヘテロセダスティック分割経験的ベイズ期待条件最大化アルゴリズムを用いて,高次元ヘテロセダスティック線形回帰モデルを推定する。
論文 参考訳(メタデータ) (2023-09-15T22:06:29Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Probabilistic Symmetry for Multi-Agent Dynamics [18.94585103009698]
本稿では,多エージェント軌道の確率論的予測のための新しい動的モデルである確率的同変連続共進化(PECCO)を提案する。
PECCOは、非同変ベースラインに比べて精度とキャリブレーションが大幅に向上した。
論文 参考訳(メタデータ) (2022-05-04T07:51:08Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - Probabilistic Gradient Boosting Machines for Large-Scale Probabilistic
Regression [51.770998056563094]
PGBM(Probabilistic Gradient Boosting Machines)は、確率的予測を生成する手法である。
既存の最先端手法と比較してPGBMの利点を実証的に示す。
論文 参考訳(メタデータ) (2021-06-03T08:32:13Z) - Model-based multi-parameter mapping [0.0]
定量的MRイメージングは、よりリッチな情報の内容と標準化された測定基準のためにますます好まれている。
推定はしばしば、異なる量のデータを分離して解くために、データのノイズサブセットを仮定する。
代わりに、生成モデルは定式化され、パラメータ推定を共同で回復するために反転することができる。
論文 参考訳(メタデータ) (2021-02-02T17:00:11Z) - Gaussian Process Boosting [6.85316573653194]
ガウス過程と混合効果モデルを組み合わせた新しい手法を提案する。
シミュレーションおよび実世界のデータセットに対する既存手法と比較して予測精度が向上する。
論文 参考訳(メタデータ) (2020-04-06T13:19:54Z) - Estimation of Accurate and Calibrated Uncertainties in Deterministic
models [0.8702432681310401]
我々は,決定論的予測を確率論的予測に変換する手法を考案した。
そのためには,そのようなモデルの精度と信頼性(校正)を損なう必要がある。
隠れたノイズを正確に回収できる合成データと、大規模な実世界のデータセットの両方について、いくつかの例を示す。
論文 参考訳(メタデータ) (2020-03-11T04:02:56Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z) - Generalized Gumbel-Softmax Gradient Estimator for Various Discrete
Random Variables [16.643346012854156]
ノードの勾配を評価することは、深層生成モデリングコミュニティにおいて重要な研究課題の1つである。
本稿では,連続緩和を伴うGumbel-Softmax推定器の一般バージョンを提案する。
論文 参考訳(メタデータ) (2020-03-04T01:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。