論文の概要: Bayesian hierarchical stacking
- arxiv url: http://arxiv.org/abs/2101.08954v1
- Date: Fri, 22 Jan 2021 05:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 17:27:13.995852
- Title: Bayesian hierarchical stacking
- Title(参考訳): ベイズ階層的積み重ね
- Authors: Yuling Yao, Gregor Pir\v{s}, Aki Vehtari, Andrew Gelman
- Abstract要約: モデル予測性能が入力に不均一である場合,スタック化が最も有効であることを示す。
入力変動が部分的にプールされたモデル重み付けにより、階層的積み重ねは平均および条件付き予測を改善する。
- 参考スコア(独自算出の注目度): 10.371079239965836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stacking is a widely used model averaging technique that yields
asymptotically optimal prediction among all linear averages. We show that
stacking is most effective when the model predictive performance is
heterogeneous in inputs, so that we can further improve the stacked mixture
with a hierarchical model. With the input-varying yet partially-pooled model
weights, hierarchical stacking improves average and conditional predictions.
Our Bayesian formulation includes constant-weight (complete-pooling) stacking
as a special case. We generalize to incorporate discrete and continuous inputs,
other structured priors, and time-series and longitudinal data. We demonstrate
on several applied problems.
- Abstract(参考訳): 積み重ねは、すべての線形平均に対して漸近的に最適な予測をもたらす、広く使われているモデル平均化手法である。
モデル予測性能が不均一な場合の積み重ねは最も効果的であることを示し、階層モデルによる積み重ね混合をさらに改善できることを示す。
入力変動が部分的にプールされたモデル重み付けにより、階層的積み重ねは平均および条件付き予測を改善する。
ベイズ的定式化は、特別の場合として定重(完全プール)積み重ねを含む。
離散的および連続的な入力、他の構造化事前データ、時系列および縦断データを取り込むことを一般化する。
いくつかの応用問題を実証する。
関連論文リスト
- Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Theoretical Guarantees of Data Augmented Last Layer Retraining Methods [5.352699766206809]
最短グループ精度で最先端の性能を達成するために, 線形最終層再訓練戦略が示されている。
本稿では、潜在表現の分布をモデル化する際の最適最悪のグループ精度を示す。
我々は、合成データセットと大規模公開データセットの両方について、その結果を評価し、検証する。
論文 参考訳(メタデータ) (2024-05-09T17:16:54Z) - BayesBlend: Easy Model Blending using Pseudo-Bayesian Model Averaging, Stacking and Hierarchical Stacking in Python [0.0]
重みを推定し、複数の(ベイジアン)モデルの予測分布をブレンドするために、BayesBlend Pythonパッケージを導入する。
ベイズブレンドは、モデルウェイトを推定するために擬ベイズモデルの平均化、積み重ね、一意的に階層的ベイズ積み重ねを実装している。
ベイズブレンドの保険損失モデリングの例を例に紹介する。
論文 参考訳(メタデータ) (2024-04-30T19:15:33Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Approximating a RUM from Distributions on k-Slates [88.32814292632675]
与えられた分布を平均で最もよく近似するRUMを求める一般化時間アルゴリズムを求める。
我々の理論的結果は、実世界のデータセットに効果的でスケール可能なものを得るという、実践的な結果も得られます。
論文 参考訳(メタデータ) (2023-05-22T17:43:34Z) - Locking and Quacking: Stacking Bayesian model predictions by log-pooling
and superposition [0.5735035463793007]
異なるモデルから予測を合成するための2つの新しいツールを提案する。
これらはモデル積み重ねの一般化であるが、対数線形プールと量子重ね合わせによって後続密度を結合する。
モデル重みを正規化の負担を回避しつつ最適化するため, 混合後予測のハイバリネンスコアについて検討した。
論文 参考訳(メタデータ) (2023-05-12T09:26:26Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Continuously Generalized Ordinal Regression for Linear and Deep Models [41.03778663275373]
正規回帰は、クラスが順序を持ち、予測エラーが予測されたクラスが真のクラスからさらに大きくなるような分類タスクである。
本稿では,クラス固有の超平面斜面をモデル化するための新しい手法を提案する。
本手法は,順序回帰ベンチマークデータセットの完全セットに対して,標準順序ロジスティックモデルよりも大幅に優れる。
論文 参考訳(メタデータ) (2022-02-14T19:49:05Z) - Optimal Ensemble Construction for Multi-Study Prediction with
Applications to COVID-19 Excess Mortality Estimation [7.02598981483736]
マルチスタディ・アンサンブルは、研究固有のモデルに適合し、アンサンブル重みを別々に推定する2段階戦略を用いる。
このアプローチは、モデル適合段階でのアンサンブル特性を無視し、効率を損なう可能性がある。
パンデミックの開始前にはほとんどデータが入手できない場合、他の国のデータを活用することで、予測精度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-09-19T16:52:41Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。