論文の概要: Towards A Unified PAC-Bayesian Framework for Norm-based Generalization Bounds
- arxiv url: http://arxiv.org/abs/2601.08100v1
- Date: Tue, 13 Jan 2026 00:42:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.992196
- Title: Towards A Unified PAC-Bayesian Framework for Norm-based Generalization Bounds
- Title(参考訳): ノルムに基づく一般化境界のための統一PAC-Bayesianフレームワークの実現に向けて
- Authors: Xinping Yi, Gaojie Jin, Xiaowei Huang, Shi Jin,
- Abstract要約: PAC-Bayesianノルムに基づく一般化のための統一的なフレームワークを提案する。
提案手法の鍵となるのは、構造的重み摂動に関してネットワーク出力を定量化する感度行列である。
我々は、いくつかの既存のPAC-ベイジアン結果を特殊ケースとして回復する一般化境界の族を導出する。
- 参考スコア(独自算出の注目度): 63.47271262149291
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the generalization behavior of deep neural networks remains a fundamental challenge in modern statistical learning theory. Among existing approaches, PAC-Bayesian norm-based bounds have demonstrated particular promise due to their data-dependent nature and their ability to capture algorithmic and geometric properties of learned models. However, most existing results rely on isotropic Gaussian posteriors, heavy use of spectral-norm concentration for weight perturbations, and largely architecture-agnostic analyses, which together limit both the tightness and practical relevance of the resulting bounds. To address these limitations, in this work, we propose a unified framework for PAC-Bayesian norm-based generalization by reformulating the derivation of generalization bounds as a stochastic optimization problem over anisotropic Gaussian posteriors. The key to our approach is a sensitivity matrix that quantifies the network outputs with respect to structured weight perturbations, enabling the explicit incorporation of heterogeneous parameter sensitivities and architectural structures. By imposing different structural assumptions on this sensitivity matrix, we derive a family of generalization bounds that recover several existing PAC-Bayesian results as special cases, while yielding bounds that are comparable to or tighter than state-of-the-art approaches. Such a unified framework provides a principled and flexible way for geometry-/structure-aware and interpretable generalization analysis in deep learning.
- Abstract(参考訳): ディープニューラルネットワークの一般化挙動を理解することは、現代の統計的学習理論における根本的な課題である。
既存のアプローチの中で、PAC-ベイズノルムに基づく境界は、そのデータ依存の性質と学習モデルのアルゴリズム的および幾何学的特性を捉える能力により、特に有望であることを示した。
しかし、既存のほとんどの結果は、等方性ガウス後部、質量摂動に対するスペクトルノルム濃度の多用、および主にアーキテクチャに依存しない分析に依存しており、結果として生じる境界の厳密さと実用的関連性の両方を同時に制限している。
これらの制限に対処するため、本研究では、異方性ガウス後部に対する確率的最適化問題として一般化境界の導出を再構成することにより、PAC-ベイズノルムに基づく一般化のための統一的なフレームワークを提案する。
提案手法の鍵となるのは、構造的重み摂動に関するネットワーク出力を定量化する感度行列であり、不均一なパラメータの感度と構造構造の明示的な取り込みを可能にする。
この感度行列に異なる構造的仮定を課すことで、一般化境界の族を導出し、いくつかの既存のPAC-ベイズ的結果を特殊ケースとして回収し、また最先端のアプローチに匹敵するあるいはより厳密な境界を導出する。
このような統合されたフレームワークは、ディープラーニングにおける幾何学的・構造的認識と解釈可能な一般化分析のための原則的で柔軟な方法を提供する。
関連論文リスト
- Mutual Information Free Topological Generalization Bounds via Stability [46.63069403118614]
既存の戦略から離れる新しい学習理論フレームワークを導入する。
トラジェクトリ安定アルゴリズムの一般化誤差をTDA項で上界化できることを示す。
論文 参考訳(メタデータ) (2025-07-09T12:03:25Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - PAC-Chernoff Bounds: Understanding Generalization in the Interpolation Regime [6.645111950779666]
本稿では,補間器の完全密度を示す分布依存型PAC-Chernoff境界を提案する。
我々は、ある補間子がなぜ例外的な一般化を示すのかを示す統一的な理論的枠組みを提示する。
論文 参考訳(メタデータ) (2023-06-19T14:07:10Z) - Out-of-distributional risk bounds for neural operators with applications
to the Helmholtz equation [6.296104145657063]
既存のニューラル演算子(NO)は、全ての物理問題に対して必ずしもうまく機能しない。
非線形作用素の波動速度を解にマッピングする実験的な近似を可能にするNOのサブファミリーを提案する。
本実験は, 深度導入の一般化と関連性において, ある種のサプライズを明らかにするものである。
我々は、NOsのサブファミリーのハイパーネットワークバージョンを、前述のフォワード演算子のサロゲートモデルとして提案することで結論付ける。
論文 参考訳(メタデータ) (2023-01-27T03:02:12Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。