論文の概要: Deep Gaussian Mixture Ensembles
- arxiv url: http://arxiv.org/abs/2306.07235v1
- Date: Mon, 12 Jun 2023 16:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 13:43:11.430030
- Title: Deep Gaussian Mixture Ensembles
- Title(参考訳): 深いガウス混合集合
- Authors: Yousef El-Laham, Niccol\`o Dalmasso, Elizabeth Fons, Svitlana
Vyetrenko
- Abstract要約: この研究は、ディープガウス混合アンサンブル(DGME)と呼ばれる新しい確率的深層学習技術を導入している。
DGMEは、重み付き分布やマルチモーダル分布などの複雑な確率分布を近似することができる。
実験の結果,DGMEは複雑な予測密度を扱う深層学習モデルにおいて,最先端の不確実性よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 9.673093148930874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces a novel probabilistic deep learning technique called
deep Gaussian mixture ensembles (DGMEs), which enables accurate quantification
of both epistemic and aleatoric uncertainty. By assuming the data generating
process follows that of a Gaussian mixture, DGMEs are capable of approximating
complex probability distributions, such as heavy-tailed or multimodal
distributions. Our contributions include the derivation of an
expectation-maximization (EM) algorithm used for learning the model parameters,
which results in an upper-bound on the log-likelihood of training data over
that of standard deep ensembles. Additionally, the proposed EM training
procedure allows for learning of mixture weights, which is not commonly done in
ensembles. Our experimental results demonstrate that DGMEs outperform
state-of-the-art uncertainty quantifying deep learning models in handling
complex predictive densities.
- Abstract(参考訳): この研究は、ディープガウス混合アンサンブル(DGMEs)と呼ばれる新しい確率論的深層学習技術を導入し、てんかんとアレタリックの不確実性の正確な定量化を可能にした。
データ生成過程がガウス混合に従えば、DGMEは重み付き分布やマルチモーダル分布などの複雑な確率分布を近似することができる。
我々の貢献には、モデルパラメータの学習に使用される期待最大化(EM)アルゴリズムの導出が含まれる。
さらに、提案したEMトレーニングでは、アンサンブルでは一般的に行われない混合重量の学習が可能になる。
実験の結果,DGMEは複雑な予測密度を扱う深層学習モデルよりも優れていることがわかった。
関連論文リスト
- Network EM Algorithm for Gaussian Mixture Model in Decentralized Federated Learning [1.4549461207028445]
ガウス混合モデルに対する様々なネットワーク期待-最大化(EM)アルゴリズムについて検討する。
モーメント・ネットワークEM (MNEM) アルゴリズムを導入し, モーメント・パラメータを用いて現在の推定値と過去の推定値の両方からの情報を組み合わせる。
また,部分ラベル付きデータを利用する半教師付きMNEMアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-11-08T14:25:46Z) - MD-NOMAD: Mixture density nonlinear manifold decoder for emulating stochastic differential equations and uncertainty propagation [0.9208007322096533]
本研究では, 混合密度非線形多様体デコーダ (MD-NOMAD) をシミュレータとして提案する。
提案手法は,ニューラルアーキテクチャの非線形デコーダ(NomaD)を混合密度法で学習し,出力関数の条件付き確率を推定する。
論文 参考訳(メタデータ) (2024-04-24T08:39:14Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Mixtures of Gaussian Process Experts with SMC$^2$ [0.4588028371034407]
ガウスのプロセスエキスパートの混合は、データポイントが独立した専門家に割り当てられる場所として検討されている。
我々は、ネストした連続モンテカルロサンプルを用いた新しい推論手法を構築し、ゲーティングネットワークとガウス過程の専門家パラメータの両方を推論する。
論文 参考訳(メタデータ) (2022-08-26T18:20:14Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Probabilistic electric load forecasting through Bayesian Mixture Density
Networks [70.50488907591463]
確率的負荷予測(PLF)は、スマートエネルギーグリッドの効率的な管理に必要な拡張ツールチェーンの重要なコンポーネントです。
ベイジアン混合密度ネットワークを枠とした新しいPLFアプローチを提案する。
後方分布の信頼性と計算にスケーラブルな推定を行うため,平均場変動推定と深層アンサンブルを統合した。
論文 参考訳(メタデータ) (2020-12-23T16:21:34Z) - Multivariate Density Estimation with Deep Neural Mixture Models [0.0]
ディープニューラルネットワーク(DNN)は密度推定にはほとんど適用されていない。
本稿では,ニューラルミクチャー密度(NMM)に関するこれまでの研究を拡張した。
深部NMM(Deep NMM)を推定するための最大形アルゴリズム(ML)が配される。
DNMMを通して任意の精度でモデル化できる確率密度関数のクラスが正式に定義される。
論文 参考訳(メタデータ) (2020-12-06T23:03:48Z) - A similarity-based Bayesian mixture-of-experts model [0.5156484100374058]
多変量回帰問題に対する新しい非パラメトリック混合実験モデルを提案する。
条件付きモデルを用いて、サンプル外入力の予測は、観測された各データポイントと類似性に基づいて行われる。
混合物のパラメータと距離測定値に基づいて後部推論を行う。
論文 参考訳(メタデータ) (2020-12-03T18:08:30Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。