論文の概要: Scale-invariant Bayesian Neural Networks with Connectivity Tangent
Kernel
- arxiv url: http://arxiv.org/abs/2209.15208v1
- Date: Fri, 30 Sep 2022 03:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 14:30:23.771642
- Title: Scale-invariant Bayesian Neural Networks with Connectivity Tangent
Kernel
- Title(参考訳): 接続性タンジェントカーネルを用いたスケール不変ベイズニューラルネットワーク
- Authors: SungYub Kim, Sihwan Park, Kyungsu Kim, Eunho Yang
- Abstract要約: パラメータのスケールに応じて、平坦性と一般化境界を任意に変更できることが示される。
我々は,パラメータのスケールと接続性をテキスト分解することで,スケーリング変換に不変な新しい事前分布と後続分布を提案する。
我々は, 後部が, 複雑さの低い効果的な平坦度とキャリブレーションの指標を実証的に示す。
- 参考スコア(独自算出の注目度): 30.088226334627375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining generalizations and preventing over-confident predictions are
central goals of studies on the loss landscape of neural networks. Flatness,
defined as loss invariability on perturbations of a pre-trained solution, is
widely accepted as a predictor of generalization in this context. However, the
problem that flatness and generalization bounds can be changed arbitrarily
according to the scale of a parameter was pointed out, and previous studies
partially solved the problem with restrictions: Counter-intuitively, their
generalization bounds were still variant for the function-preserving parameter
scaling transformation or limited only to an impractical network structure. As
a more fundamental solution, we propose new prior and posterior distributions
invariant to scaling transformations by \textit{decomposing} the scale and
connectivity of parameters, thereby allowing the resulting generalization bound
to describe the generalizability of a broad class of networks with the more
practical class of transformations such as weight decay with batch
normalization. We also show that the above issue adversely affects the
uncertainty calibration of Laplace approximation and propose a solution using
our invariant posterior. We empirically demonstrate our posterior provides
effective flatness and calibration measures with low complexity in such a
practical parameter transformation case, supporting its practical effectiveness
in line with our rationale.
- Abstract(参考訳): ニューラルネットワークの損失景観に関する研究の中心的な目的は、一般化と過信予測の防止である。
事前学習した解の摂動に対する損失不変性として定義される平坦性は、この文脈における一般化の予測因子として広く受け入れられている。
しかし、パラメータのスケールに応じて平坦性や一般化境界を任意に変更できるという問題は指摘され、以前の研究では部分的に制限を解いた: 対意的に、それらの一般化境界は関数保存パラメータスケーリング変換の変種であったり、非現実的なネットワーク構造に限られていたりした。
より基本的な解として、パラメータのスケールと接続性によって、スケール変換に不変な新しい事前分布と後続分布を提案し、その結果の一般化が、バッチ正規化による重み減衰のようなより実用的な変換のクラスを持つ広範級ネットワークの一般化可能性を記述することができる。
また、この問題はラプラス近似の不確実性校正に悪影響を及ぼし、我々の不変後部を用いた解を提案する。
このようなパラメータ変換のケースでは,後部が有効平坦度とキャリブレーションの度合いが低いことを実証的に実証し,その実用的効果を理論的に裏付ける。
関連論文リスト
- Reparameterization invariance in approximate Bayesian inference [32.88960624085645]
線形化の成功を説明するために, 線形化の新たな幾何学的視点を構築した。
これらのreパラメータ化不変性は、元のニューラルネットワーク予測に拡張可能であることを実証する。
論文 参考訳(メタデータ) (2024-06-05T14:49:15Z) - Generalized Laplace Approximation [23.185126261153236]
我々は、ベイズ的不整合を不特定性をモデル化し、不適切な先行をモデル化するために、統一された理論的枠組みを導入する。
正規化損失関数のヘッセン行列に対する簡単な調整を含む一般化ラプラス近似を提案する。
我々は、最先端のニューラルネットワークと実世界のデータセット上での一般化されたLaplace近似の性能と特性を評価する。
論文 参考訳(メタデータ) (2024-05-22T11:11:42Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Function-Space Regularization in Neural Networks: A Probabilistic
Perspective [51.133793272222874]
所望の予測関数に関する情報をニューラルネットワークトレーニングに明示的にエンコードできる、モチベーションの高い正規化手法を導出できることが示される。
本手法の有効性を実証的に評価し,提案手法がほぼ完全なセマンティックシフト検出と高度に校正された予測不確実性推定に繋がることを示す。
論文 参考訳(メタデータ) (2023-12-28T17:50:56Z) - A Lifted Bregman Formulation for the Inversion of Deep Neural Networks [28.03724379169264]
本稿では,ディープニューラルネットワークの正規化インバージョンのための新しいフレームワークを提案する。
このフレームワークは、補助変数を導入することにより、パラメータ空間を高次元空間に引き上げる。
理論的結果を提示し,その実用的応用を数値的な例で支援する。
論文 参考訳(メタデータ) (2023-03-01T20:30:22Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Provably tuning the ElasticNet across instances [53.0518090093538]
我々は、複数の問題インスタンスにまたがるリッジ回帰、LASSO、ElasticNetの正規化パラメータをチューニングする問題を考察する。
我々の結果は、この重要な問題に対する学習理論による最初の一般的な保証である。
論文 参考訳(メタデータ) (2022-07-20T21:22:40Z) - On the Explicit Role of Initialization on the Convergence and Implicit
Bias of Overparametrized Linear Networks [1.0323063834827415]
勾配流下で訓練された単層線形ネットワークの新たな解析法を提案する。
正方形損失はその最適値に指数関数的に収束することを示す。
我々は、トレーニングされたネットワークとmin-norm解の間の距離に基づいて、新しい非漸近上界を導出する。
論文 参考訳(メタデータ) (2021-05-13T15:13:51Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。