論文の概要: The Infinitesimal Jackknife and Combinations of Models
- arxiv url: http://arxiv.org/abs/2209.00147v1
- Date: Wed, 31 Aug 2022 22:37:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:37:51.151616
- Title: The Infinitesimal Jackknife and Combinations of Models
- Title(参考訳): 無限小jackknifeとモデルの組合せ
- Authors: Indrayudh Ghosal, Yunzhe Zhou and Giles Hooker
- Abstract要約: Infinitesimal Jackknife を拡張して、任意の2つのモデル間の共分散を推定する。
これはモデルの組み合わせの不確実性を定量化したり、異なるモデルを比較するためのテスト統計を構築するのに使うことができる。
- 参考スコア(独自算出の注目度): 2.457924087844968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Infinitesimal Jackknife is a general method for estimating variances of
parametric models, and more recently also for some ensemble methods. In this
paper we extend the Infinitesimal Jackknife to estimate the covariance between
any two models. This can be used to quantify uncertainty for combinations of
models, or to construct test statistics for comparing different models or
ensembles of models fitted using the same training dataset. Specific examples
in this paper use boosted combinations of models like random forests and
M-estimators. We also investigate its application on neural networks and
ensembles of XGBoost models. We illustrate the efficacy of variance estimates
through extensive simulations and its application to the Beijing Housing data,
and demonstrate the theoretical consistency of the Infinitesimal Jackknife
covariance estimate.
- Abstract(参考訳): 無限小jackknifeはパラメトリックモデルの分散を推定するための一般的な方法であり、最近ではいくつかのアンサンブル法でも用いられる。
本稿では、無限小のjackknifeを拡張し、任意の2つのモデル間の共分散を推定する。
これはモデルの組み合わせに対する不確実性を定量化したり、同じトレーニングデータセットを使用して異なるモデルやアンサンブルを比較するためのテスト統計を構築するために使うことができる。
本稿では、ランダム森林やM推定器のようなモデルの強化された組み合わせを用いる。
また、ニューラルネットワークとXGBoostモデルのアンサンブルへの応用についても検討する。
広範シミュレーションによる分散推定の有効性と北京住宅データへの適用について述べ、無限小ジャックナイフ共分散推定の理論的一貫性を実証する。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Statistical inference for pairwise comparison models [5.487882744996216]
本稿では、ペアワイズ比較モデルの幅広いクラスにおいて、最大極大に対する準最適正規性を確立する。
鍵となる考え方は、フィッシャー情報行列を重み付きグラフラプラシアンとして同定することである。
論文 参考訳(メタデータ) (2024-01-16T16:14:09Z) - Local Bayesian Dirichlet mixing of imperfect models [0.0]
ベイズモデルの平均化および混合技術による核質量の採掘能力について検討した。
予測精度と不確実性定量化の両方において,グローバルモデルと局所モデルの混合が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-11-02T21:02:40Z) - Bayesian Additive Main Effects and Multiplicative Interaction Models
using Tensor Regression for Multi-environmental Trials [0.0]
本稿では,複数の因子が表現型予測に与える影響を考慮したベイズテンソル回帰モデルを提案する。
我々は、モデルのパラメータ間で生じる可能性のある識別可能性の問題を解決するための、事前分布のセットを採用する。
我々は2010年から2019年までのアイルランドにおける小麦生産に関する実世界のデータを分析して、我々のモデルの適用性を探る。
論文 参考訳(メタデータ) (2023-01-09T19:54:50Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Semi-nonparametric Latent Class Choice Model with a Flexible Class
Membership Component: A Mixture Model Approach [6.509758931804479]
提案したモデルは、従来のランダムユーティリティ仕様に代わるアプローチとして混合モデルを用いて潜在クラスを定式化する。
その結果,混合モデルにより潜在クラス選択モデル全体の性能が向上した。
論文 参考訳(メタデータ) (2020-07-06T13:19:26Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z) - Amortized Bayesian model comparison with evidential deep learning [0.12314765641075436]
本稿では,専門的なディープラーニングアーキテクチャを用いたベイズモデルの比較手法を提案する。
提案手法は純粋にシミュレーションベースであり,観測された各データセットに対して,すべての代替モデルを明示的に適合させるステップを回避している。
提案手法は,本研究で検討した事例に対して,精度,キャリブレーション,効率の点で優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-22T15:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。