論文の概要: Spectral Regularization Allows Data-frugal Learning over Combinatorial
Spaces
- arxiv url: http://arxiv.org/abs/2210.02604v1
- Date: Wed, 5 Oct 2022 23:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 15:41:05.241767
- Title: Spectral Regularization Allows Data-frugal Learning over Combinatorial
Spaces
- Title(参考訳): スペクトル規則化により、コンビネーション空間上のデータフルーガラーニングが可能に
- Authors: Amirali Aghazadeh and Nived Rajaraman and Tony Tu and Kannan
Ramchandran
- Abstract要約: 機械学習モデルのスペクトル表現の規則化は、ラベル付きデータが乏しい場合に一般化能力を向上させることを示す。
正規化損失の勾配降下は、いくつかのデータ共有現実問題におけるベースラインアルゴリズムと比較して、より優れた一般化性能をもたらす。
- 参考スコア(独自算出の注目度): 13.36217184117654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven machine learning models are being increasingly employed in
several important inference problems in biology, chemistry, and physics which
require learning over combinatorial spaces. Recent empirical evidence (see,
e.g., [1], [2], [3]) suggests that regularizing the spectral representation of
such models improves their generalization power when labeled data is scarce.
However, despite these empirical studies, the theoretical underpinning of when
and how spectral regularization enables improved generalization is poorly
understood. In this paper, we focus on learning pseudo-Boolean functions and
demonstrate that regularizing the empirical mean squared error by the L_1 norm
of the spectral transform of the learned function reshapes the loss landscape
and allows for data-frugal learning, under a restricted secant condition on the
learner's empirical error measured against the ground truth function. Under a
weaker quadratic growth condition, we show that stationary points which also
approximately interpolate the training data points achieve statistically
optimal generalization performance. Complementing our theory, we empirically
demonstrate that running gradient descent on the regularized loss results in a
better generalization performance compared to baseline algorithms in several
data-scarce real-world problems.
- Abstract(参考訳): データ駆動機械学習モデルは、組合せ空間上での学習を必要とする生物学、化学、物理学におけるいくつかの重要な推論問題にますます採用されている。
最近の経験的証拠(例えば [1], [2], [3])は、そのようなモデルのスペクトル表現の規則化はラベル付きデータが不足しているときに一般化能力を改善することを示唆している。
しかし、これらの実証研究にもかかわらず、いつ、どのようにスペクトル正則化が一般化を促進するかという理論的根拠は理解されていない。
本稿では,擬似ブール関数の学習に焦点をあて,学習関数のスペクトル変換のL_1ノルムによる経験平均二乗誤差の正則化が損失ランドスケープを想起させ,学習者の経験誤差を地上の真理関数に対して限定した正当性条件下でデータフルーガー学習を可能にすることを示す。
より弱い二次成長条件下では、トレーニングデータポイントをほぼ補間する定常点が統計的に最適な一般化性能が得られることを示す。
提案理論を補完し, 正規化損失に対する勾配勾配降下は, 実世界の複数の問題におけるベースラインアルゴリズムと比較して, より優れた一般化性能を示す。
関連論文リスト
- Analyzing Neural Scaling Laws in Two-Layer Networks with Power-Law Data Spectra [0.0]
ニューラルスケーリング法則は、深層ニューラルネットワークのパフォーマンスが、トレーニングデータサイズ、モデルの複雑さ、トレーニング時間などの重要な要因とどのようにスケールするかを記述する。
我々は, 統計力学の手法を用いて, 生徒-教員間の一パス勾配勾配を解析する。
論文 参考訳(メタデータ) (2024-10-11T17:21:42Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Understanding Generalization of Federated Learning via Stability:
Heterogeneity Matters [1.4502611532302039]
一般化性能は、現実世界のアプリケーションに適用された機械学習モデルを評価する上で重要な指標である。
一般化性能は、現実世界のアプリケーションに適用された機械学習モデルを評価する上で重要な指標である。
論文 参考訳(メタデータ) (2023-06-06T16:12:35Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z) - Out-of-Distribution Generalization in Kernel Regression [21.958028127426196]
トレーニングとテストの分布が異なる場合のカーネル回帰の一般化について検討する。
与えられたカーネルの分布間のミスマッチを定量化する重なり行列を同定する。
本研究では,データ予算に対するトレーニングとテストの配分を最適化する手法を開発し,そのシフトの下で最良のケースと最悪のケースの一般化を求める。
論文 参考訳(メタデータ) (2021-06-04T04:54:25Z) - Functional Regularization for Representation Learning: A Unified
Theoretical Perspective [27.93916012334704]
教師なしおよび自己教師なしの学習アプローチは、下流予測タスクの表現を学習するための重要なツールとなっている。
本稿では、ラベルなしデータを用いて学習可能な関数を通して表現に正規化を付与するものとして、このようなアプローチがいくつか考えられる統一的な視点を示す。
本稿では,これらの手法のサンプル複雑性を分析するための識別的理論的枠組みを提案し,学習可能な正規化関数を実現するために(Balcan and Blum, 2010)の枠組みを一般化する。
論文 参考訳(メタデータ) (2020-08-06T04:06:04Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。