論文の概要: Understanding Pathologies of Deep Heteroskedastic Regression
- arxiv url: http://arxiv.org/abs/2306.16717v1
- Date: Thu, 29 Jun 2023 06:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 14:27:06.342078
- Title: Understanding Pathologies of Deep Heteroskedastic Regression
- Title(参考訳): 深部ヘテロケクタスティック回帰の病態の解明
- Authors: Eliot Wong-Toi, Alex Boyd, Vincent Fortuin, Stephan Mandt
- Abstract要約: 最近の研究では、ヘテロスケダスティック神経回帰モデルを用いて実世界のデータをモデル化する際の負の結果が報告されている。
本稿では、統計物理学の観点からこれらの困難を考察する。
- 参考スコア(独自算出の注目度): 20.093642259571723
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Several recent studies have reported negative results when using
heteroskedastic neural regression models to model real-world data. In
particular, for overparameterized models, the mean and variance networks are
powerful enough to either fit every single data point (while shrinking the
predicted variances to zero), or to learn a constant prediction with an output
variance exactly matching every predicted residual (i.e., explaining the
targets as pure noise). This paper studies these difficulties from the
perspective of statistical physics. We show that the observed instabilities are
not specific to any neural network architecture but are already present in a
field theory of an overparameterized conditional Gaussian likelihood model.
Under light assumptions, we derive a nonparametric free energy that can be
solved numerically. The resulting solutions show excellent qualitative
agreement with empirical model fits on real-world data and, in particular,
prove the existence of phase transitions, i.e., abrupt, qualitative differences
in the behaviors of the regressors upon varying the regularization strengths on
the two networks. Our work thus provides a theoretical explanation for the
necessity to carefully regularize heteroskedastic regression models. Moreover,
the insights from our theory suggest a scheme for optimizing this
regularization which is quadratically more efficient than the naive approach.
- Abstract(参考訳): 最近の研究では、ヘテロスケダスティック神経回帰モデルを用いて実世界のデータをモデル化する際の負の結果が報告されている。
特に、過パラメータモデルの場合、平均と分散ネットワークは、すべてのデータポイントに適合する(予測された分散をゼロに縮小する)か、予測されたすべての残差に正確に一致する出力分散で一定の予測を学ぶ(すなわち、ターゲットを純粋なノイズとして説明する)のに十分強力である。
本稿では統計物理学の観点からこれらの困難を考察する。
観測された不安定性はニューラルネットワークアーキテクチャに特有ではないが、過剰パラメータ条件付きガウス確率モデルの場理論にすでに存在することを示す。
光仮定の下では、数値的に解ける非パラメトリック自由エネルギーを導出する。
その結果得られた解は実世界データに適合する経験モデルと優れた質的一致を示し、特に相転移の存在、すなわち、2つのネットワーク上の正規化強度を変化させてレグレッサーの挙動の質的差異を証明する。
そこで本研究では,ヘテロスケダティック回帰モデルを慎重に正規化する必要性を理論的に説明する。
さらに,本理論の知見は,ナイーブアプローチよりも二次的に効率的であるこの正則化を最適化するためのスキームを示唆する。
関連論文リスト
- Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Bayesian Additive Main Effects and Multiplicative Interaction Models
using Tensor Regression for Multi-environmental Trials [0.0]
本稿では,複数の因子が表現型予測に与える影響を考慮したベイズテンソル回帰モデルを提案する。
我々は、モデルのパラメータ間で生じる可能性のある識別可能性の問題を解決するための、事前分布のセットを採用する。
我々は2010年から2019年までのアイルランドにおける小麦生産に関する実世界のデータを分析して、我々のモデルの適用性を探る。
論文 参考訳(メタデータ) (2023-01-09T19:54:50Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Memorizing without overfitting: Bias, variance, and interpolation in
over-parameterized models [0.0]
バイアス分散トレードオフは教師あり学習における中心的な概念である。
現代のDeep Learningメソッドは、最先端のパフォーマンスを達成するために、このドグマを浮かび上がらせる。
論文 参考訳(メタデータ) (2020-10-26T22:31:04Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Maximum likelihood estimation and uncertainty quantification for
Gaussian process approximation of deterministic functions [10.319367855067476]
本稿は、ガウス過程の回帰の文脈において、ノイズのないデータセットを用いた最初の理論的分析の1つを提供する。
本稿では,スケールパラメータのみの最大推定がガウス過程モデルの不特定に対する顕著な適応をもたらすことを示す。
論文 参考訳(メタデータ) (2020-01-29T17:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。