論文の概要: Studying Generalization Through Data Averaging
- arxiv url: http://arxiv.org/abs/2206.13669v1
- Date: Tue, 28 Jun 2022 00:03:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 17:20:56.567983
- Title: Studying Generalization Through Data Averaging
- Title(参考訳): データ平均化による一般化の研究
- Authors: Carlos A. Gomez-Uribe
- Abstract要約: 本研究では,異なるデータセットのサンプルに対する差の平均から得られる一般化ギャップと,列車および試験性能について検討する。
我々はSGDノイズの関数として一般化ギャップとモデルトレインとテスト性能の相違についていくつかの側面を予測した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generalization of machine learning models has a complex dependence on the
data, model and learning algorithm. We study train and test performance, as
well as the generalization gap given by the mean of their difference over
different data set samples to understand their ``typical" behavior. We derive
an expression for the gap as a function of the covariance between the model
parameter distribution and the train loss, and another expression for the
average test performance, showing test generalization only depends on
data-averaged parameter distribution and the data-averaged loss. We show that
for a large class of model parameter distributions a modified generalization
gap is always non-negative. By specializing further to parameter distributions
produced by stochastic gradient descent (SGD), along with a few approximations
and modeling considerations, we are able to predict some aspects about how the
generalization gap and model train and test performance vary as a function of
SGD noise. We evaluate these predictions empirically on the Cifar10
classification task based on a ResNet architecture.
- Abstract(参考訳): 機械学習モデルの一般化は、データ、モデル、学習アルゴリズムに複雑な依存を持つ。
学習とテストのパフォーマンス、および異なるデータセットのサンプルに対する差の平均による一般化ギャップを調べ、それらの‘定型的’な振る舞いを理解する。
モデルパラメータ分布と列車損失の共分散関数としてのギャップの表現と、テスト一般化がデータ平均パラメータ分布とデータ平均損失のみに依存することを示す平均試験性能の表現とを導出する。
モデルパラメータ分布の大きなクラスに対して、修正された一般化ギャップは常に非負であることを示す。
確率的勾配降下(sgd)によって生成されるパラメータ分布にさらに特化することにより,sgdノイズの関数として一般化ギャップとモデルトレインおよびテスト性能がどのように変化するかに関するいくつかの側面を予測できる。
ResNetアーキテクチャに基づくCifar10分類タスクにおいて,これらの予測を実証的に評価する。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - Linear Regression with Distributed Learning: A Generalization Error
Perspective [0.0]
大規模線形回帰のための分散学習の性能を検討する。
我々は、一般化エラー、すなわち、見当たらないデータのパフォーマンスに焦点を当てる。
その結果、分散ソリューションの一般化誤差は、集中ソリューションの一般化誤差よりも大幅に高いことが示された。
論文 参考訳(メタデータ) (2021-01-22T08:43:28Z) - Memorizing without overfitting: Bias, variance, and interpolation in
over-parameterized models [0.0]
バイアス分散トレードオフは教師あり学習における中心的な概念である。
現代のDeep Learningメソッドは、最先端のパフォーマンスを達成するために、このドグマを浮かび上がらせる。
論文 参考訳(メタデータ) (2020-10-26T22:31:04Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。