論文の概要: Variational Deep Learning via Implicit Regularization
- arxiv url: http://arxiv.org/abs/2505.20235v1
- Date: Mon, 26 May 2025 17:15:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 19:27:27.037239
- Title: Variational Deep Learning via Implicit Regularization
- Title(参考訳): 帰納規則化による変分深層学習
- Authors: Jonathan Wenger, Beau Coker, Juraj Marusic, John P. Cunningham,
- Abstract要約: 最適化手法を用いて,変分深度ネットワークを暗黙的に正規化する方法を示す。
過度にパラメータ化された線形モデルの場合、勾配降下の帰納バイアスを完全に特徴づける。
- 参考スコア(独自算出の注目度): 20.449095674026363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern deep learning models generalize remarkably well in-distribution, despite being overparametrized and trained with little to no explicit regularization. Instead, current theory credits implicit regularization imposed by the choice of architecture, hyperparameters and optimization procedure. However, deploying deep learning models out-of-distribution, in sequential decision-making tasks, or in safety-critical domains, necessitates reliable uncertainty quantification, not just a point estimate. The machinery of modern approximate inference -- Bayesian deep learning -- should answer the need for uncertainty quantification, but its effectiveness has been challenged by our inability to define useful explicit inductive biases through priors, as well as the associated computational burden. Instead, in this work we demonstrate, both theoretically and empirically, how to regularize a variational deep network implicitly via the optimization procedure, just as for standard deep learning. We fully characterize the inductive bias of (stochastic) gradient descent in the case of an overparametrized linear model as generalized variational inference and demonstrate the importance of the choice of parametrization. Finally, we show empirically that our approach achieves strong in- and out-of-distribution performance without tuning of additional hyperparameters and with minimal time and memory overhead over standard deep learning.
- Abstract(参考訳): 現代のディープラーニングモデルは、過度にパラメータ化され、明示的な正規化をほとんど、あるいは全く行わずに訓練されているにもかかわらず、非常によく分布する。
代わりに、現在の理論はアーキテクチャ、ハイパーパラメータ、最適化手順の選択によって課される暗黙の正規化を信用している。
しかし、ディープラーニングモデルを配布外、シーケンシャルな意思決定タスク、あるいは安全クリティカルな領域にデプロイするには、単なるポイント推定ではなく、信頼性の高い不確実性定量化が必要である。
現代の近似推論の機械 -- ベイズ深層学習 -- は、不確実な定量化の必要性に答えるべきである。
代わりに、我々は理論上も経験上も、最適化手順を通じて暗黙的に変分深層ネットワークを規則化する方法を、標準的な深層学習と同じように示す。
過パラメータ化線形モデルの場合の(確率的な)勾配勾配の帰納バイアスを一般化変分推論として完全に特徴付け、パラメータ化の選択の重要性を示す。
最後に,本手法は,高パラメータの調整や,標準ディープラーニングよりも時間とメモリのオーバーヘッドが最小限に抑えられることなく,高いイン・アウト・オブ・ディストリビューション性能を実現することを実証的に示す。
関連論文リスト
- Adaptive Conformal Inference by Betting [51.272991377903274]
データ生成プロセスについて仮定することなく適応型共形推論の問題を考察する。
適応型共形推論のための既存のアプローチは、オンライン勾配勾配の変種を用いたピンボール損失の最適化に基づいている。
本稿では,パラメータフリーなオンライン凸最適化手法を利用した適応型共形推論手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T18:42:08Z) - Generalized Gaussian Temporal Difference Error for Uncertainty-aware Reinforcement Learning [0.19418036471925312]
深部強化学習における一般化されたガウス誤差モデリングのための新しい枠組みを提案する。
我々はデータ依存型アレタリック不確実性の推定と緩和を改善する。
ポリシー勾配アルゴリズムによる実験は、大幅な性能向上を示す。
論文 参考訳(メタデータ) (2024-08-05T08:12:25Z) - Bayesian Inference for Consistent Predictions in Overparameterized Nonlinear Regression [0.0]
本研究では,ベイズフレームワークにおける過パラメータ化非線形回帰の予測特性について検討した。
リプシッツ連続活性化関数を持つ一般化線形および単一ニューロンモデルに対して後部収縮が成立する。
提案手法は数値シミュレーションと実データアプリケーションを用いて検証した。
論文 参考訳(メタデータ) (2024-04-06T04:22:48Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Bayesian Nonparametrics Meets Data-Driven Distributionally Robust Optimization [29.24821214671497]
機械学習と統計モデルのトレーニングは、しばしばデータ駆動型リスク基準の最適化を伴う。
ベイズ的非パラメトリック(ディリクレ過程)理論と、スムーズなあいまいさ-逆選好の最近の決定論的モデルを組み合わせた、新しいロバストな基準を提案する。
実用的な実装として、よく知られたディリクレプロセスの表現に基づいて、評価基準の抽出可能な近似を提案し、研究する。
論文 参考訳(メタデータ) (2024-01-28T21:19:15Z) - Function-Space Regularization in Neural Networks: A Probabilistic
Perspective [51.133793272222874]
所望の予測関数に関する情報をニューラルネットワークトレーニングに明示的にエンコードできる、モチベーションの高い正規化手法を導出できることが示される。
本手法の有効性を実証的に評価し,提案手法がほぼ完全なセマンティックシフト検出と高度に校正された予測不確実性推定に繋がることを示す。
論文 参考訳(メタデータ) (2023-12-28T17:50:56Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。