論文の概要: Instance-Dependent Generalization Bounds via Optimal Transport
- arxiv url: http://arxiv.org/abs/2211.01258v1
- Date: Wed, 2 Nov 2022 16:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 12:36:10.099406
- Title: Instance-Dependent Generalization Bounds via Optimal Transport
- Title(参考訳): 最適輸送によるインスタンス依存一般化境界
- Authors: Songyan Hou, Parnian Kassraie, Anastasis Kratsios, Jonas Rothfuss,
Andreas Krause
- Abstract要約: 既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
本稿では,一般化問題に対する新しい最適輸送解釈を提案する。
トレーニング中,我々の限界は有意義であり,一般的な正規化手法の効果を捉えている。
- 参考スコア(独自算出の注目度): 67.82748822493053
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing generalization bounds fail to explain crucial factors that drive
generalization of modern neural networks. Since such bounds often hold
uniformly over all parameters, they suffer from over-parametrization, and fail
to account for the fact that the set of parameters, considered during
initialization and training, is much more restricted than the entire parameter
space. As an alternative, we propose a novel optimal transport interpretation
of the generalization problem. This allows us to derive instance-dependent
generalization bounds that depend on the local Lipschitz regularity of the
learned prediction function} in the data space. Therefore, our bounds are
agnostic to the parametrization of the model and work well when the number of
training samples is much smaller than the number of parameters. With small
modifications, our approach yields accelerated rates for data on
low-dimensional manifolds, and guarantees under distribution shifts. We
empirically analyze our generalization bounds for neural networks, showing that
the bound values are meaningful and capture the effect of popular
regularization methods during training.
- Abstract(参考訳): 既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要素を説明できない。
そのような境界はしばしばすべてのパラメータに対して均一に保持されるため、過度なパラメータ化に苦しめられ、初期化やトレーニング中に考慮されるパラメータの集合がパラメータ空間全体よりもはるかに制限されているという事実を考慮できない。
代替案として,一般化問題の最適輸送解釈を提案する。
これにより、データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出することができる。
したがって、我々の境界はモデルのパラメータ化に依存せず、トレーニングサンプルの数がパラメータの数よりもはるかに小さい場合にうまく機能します。
小さな修正によって、低次元多様体上のデータの加速速度が得られ、分布シフト下では保証される。
ニューラルネットワークの一般化境界を実験的に解析し,境界値が有意義であることを示し,訓練中の一般的な正規化手法の効果を捉えた。
関連論文リスト
- Exact, Tractable Gauss-Newton Optimization in Deep Reversible Architectures Reveal Poor Generalization [52.16435732772263]
多くのアプリケーションにおいて、ディープニューラルネットワークのトレーニングを加速する2階最適化が示されている。
しかし、二階法の一般化特性についてはいまだ議論が続いている。
我々は、Gauss-Newton (GN) の正確な更新が、ディープアーキテクチャのクラスにおいて、牽引可能な形式を取ることを初めて示す。
論文 参考訳(メタデータ) (2024-11-12T17:58:40Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Generalization in Kernel Regression Under Realistic Assumptions [41.345620270267446]
共通カーネルや任意の正規化、ノイズ、任意の入力次元、サンプル数に対して厳密な境界を提供する。
以上の結果から,高入力次元における過剰適合,固定次元におけるほぼ誘電過剰適合,正規化回帰に対する明示的な収束率が示唆された。
副産物として、カーネルシステムで訓練されたニューラルネットワークの時間依存境界を得る。
論文 参考訳(メタデータ) (2023-12-26T10:55:20Z) - Measuring Generalization with Optimal Transport [111.29415509046886]
我々は、マージンを最適輸送コストで正規化する、マージンベースの一般化境界を開発する。
我々の境界は、大規模データセット上でトレーニングデータとネットワークパラメータを与えられた一般化誤差を強く予測する。
論文 参考訳(メタデータ) (2021-06-07T03:04:59Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Failures of model-dependent generalization bounds for least-norm
interpolation [39.97534972432276]
最小ノルム線形回帰器の一般化性能に関するバウンダリを考察する。
訓練例における様々な自然な関節分布に対して、任意の有効な一般化境界は非常に緩くなければならない。
論文 参考訳(メタデータ) (2020-10-16T16:30:05Z) - Benign overfitting in ridge regression [0.0]
過度にパラメータ化されたリッジ回帰に対する漸近的でない一般化境界を提供する。
最小あるいは負の正則化が小さい一般化誤差を得るのに十分であるかどうかを同定する。
論文 参考訳(メタデータ) (2020-09-29T20:00:31Z) - When Does Preconditioning Help or Hurt Generalization? [74.25170084614098]
本稿では,第1次および第2次手法のテキスト単純バイアスが一般化特性の比較にどのように影響するかを示す。
本稿では、バイアス分散トレードオフを管理するためのいくつかのアプローチと、GDとNGDを補間する可能性について論じる。
論文 参考訳(メタデータ) (2020-06-18T17:57:26Z) - Fundamental Limits of Ridge-Regularized Empirical Risk Minimization in
High Dimensions [41.7567932118769]
経験的リスク最小化アルゴリズムは、様々な推定や予測タスクで広く利用されている。
本稿では,コンベックスEMMの統計的精度に関する基礎的限界を推論のために初めて特徴づける。
論文 参考訳(メタデータ) (2020-06-16T04:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。