論文の概要: Deep interpretable ensembles
- arxiv url: http://arxiv.org/abs/2205.12729v1
- Date: Wed, 25 May 2022 12:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 20:42:21.341740
- Title: Deep interpretable ensembles
- Title(参考訳): 深層解釈可能なアンサンブル
- Authors: Lucas Kook, Andrea G\"otschi, Philipp FM Baumann, Torsten Hothorn,
Beate Sick
- Abstract要約: ディープアンサンブルでは、個々のモデルは通常ブラックボックスニューラルネットワーク、または最近では部分的に解釈可能な半構造化されたディープトランスフォーメーションモデルである。
本稿では,確率論的予測を集約し,解釈可能性を維持し,平均的なアンサンブルメンバーよりも均一に優れた予測を得られる新しい変換アンサンブルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensembles improve prediction performance and allow uncertainty quantification
by aggregating predictions from multiple models. In deep ensembling, the
individual models are usually black box neural networks, or recently, partially
interpretable semi-structured deep transformation models. However,
interpretability of the ensemble members is generally lost upon aggregation.
This is a crucial drawback of deep ensembles in high-stake decision fields, in
which interpretable models are desired. We propose a novel transformation
ensemble which aggregates probabilistic predictions with the guarantee to
preserve interpretability and yield uniformly better predictions than the
ensemble members on average. Transformation ensembles are tailored towards
interpretable deep transformation models but are applicable to a wider range of
probabilistic neural networks. In experiments on several publicly available
data sets, we demonstrate that transformation ensembles perform on par with
classical deep ensembles in terms of prediction performance, discrimination,
and calibration. In addition, we demonstrate how transformation ensembles
quantify both aleatoric and epistemic uncertainty, and produce minimax optimal
predictions under certain conditions.
- Abstract(参考訳): アンサンブルは予測性能を改善し、複数のモデルから予測を集約することで不確実性定量化を可能にする。
deep ensemblingでは、個々のモデルは通常ブラックボックスニューラルネットワーク、あるいは最近では部分的に解釈可能な半構造化ディープトランスフォーメーションモデルである。
しかし、アンサンブル部材の解釈性は、集合すると一般的に失われる。
これは、解釈可能なモデルが要求される高次の決定分野における深いアンサンブルの重大な欠点である。
本稿では,確率論的予測を集約し,解釈可能性を維持し,平均的なアンサンブルメンバーよりも均一に優れた予測を得られる新しい変換アンサンブルを提案する。
変換アンサンブルは解釈可能な深層変換モデルに適合するが、より広範な確率的ニューラルネットワークに適用できる。
いくつかの公開データセットの実験において、変換アンサンブルは予測性能、識別、校正の点で古典的な深層アンサンブルと同等に動作することを示した。
さらに, 変換アンサンブルがアレタリックおよびてんかんの両不確実性を定量化し, 特定の条件下での最小の最適予測を生成する方法を示す。
関連論文リスト
- Mixup Regularization: A Probabilistic Perspective [11.501663622998697]
本稿では,確率的融合に基づく混合正規化のための新しいフレームワークを提案する。
指数族にしたがって分布するデータに対して、可能性関数は解析的に融合可能であることを示す。
本稿では,ニューラルネットワークの任意の中間層における入力の融合を可能にする確率的ミックスアップの拡張を提案する。
論文 参考訳(メタデータ) (2025-02-19T15:39:14Z) - Can Bayesian Neural Networks Make Confident Predictions? [0.0]
内層重みに対する離散化事前の下では, 後部予測分布をガウス混合として正確に特徴付けることができることを示す。
また、異なるスケーリング体制における後部予測の収縮を評価することにより、モデルが「データから学習する」能力も特徴付ける。
論文 参考訳(メタデータ) (2025-01-20T22:36:28Z) - Dynamic Post-Hoc Neural Ensemblers [55.15643209328513]
本研究では,ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ベースモデル予測をランダムにドロップすることでモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性を低くし、オーバーフィッティングを減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Revisiting Optimism and Model Complexity in the Wake of Overparameterized Machine Learning [6.278498348219108]
まず、(有効)自由度という古典的な統計的概念を再解釈し、拡張することで、第一原理からモデルの複雑さを再考する。
我々は,概念的議論,理論,実験の混合を通じて,提案した複雑性尺度の有用性を実証する。
論文 参考訳(メタデータ) (2024-10-02T06:09:57Z) - Towards Generalizable and Interpretable Motion Prediction: A Deep
Variational Bayes Approach [54.429396802848224]
本稿では,分布外ケースに対する頑健な一般化性を有する動き予測のための解釈可能な生成モデルを提案する。
このモデルでは, 長期目的地の空間分布を推定することにより, 目標駆動動作予測を実現する。
動き予測データセットの実験は、適合したモデルが解釈可能で一般化可能であることを検証した。
論文 参考訳(メタデータ) (2024-03-10T04:16:04Z) - On the Out-of-Distribution Coverage of Combining Split Conformal
Prediction and Bayesian Deep Learning [1.131316248570352]
ベイジアンディープラーニングと分割共形予測の組み合わせと,この組み合わせが分布外カバレッジにどのように影響するかに着目した。
以上の結果から,ベイズ的深層学習モデルと分割共形予測を組み合わせれば,アウト・オブ・ディストリビューション(out-of-distriion)のカバレッジを減少させるなどの意図しない結果が生じる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-21T15:50:37Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Aggregating distribution forecasts from deep ensembles [0.0]
本稿では,ディープアンサンブルのための一般的な量子集約フレームワークを提案する。
深層アンサンブルからの予測分布を組み合わせることで,予測性能を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-04-05T15:42:51Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - Probabilistic electric load forecasting through Bayesian Mixture Density
Networks [70.50488907591463]
確率的負荷予測(PLF)は、スマートエネルギーグリッドの効率的な管理に必要な拡張ツールチェーンの重要なコンポーネントです。
ベイジアン混合密度ネットワークを枠とした新しいPLFアプローチを提案する。
後方分布の信頼性と計算にスケーラブルな推定を行うため,平均場変動推定と深層アンサンブルを統合した。
論文 参考訳(メタデータ) (2020-12-23T16:21:34Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。