論文の概要: A Generalized Weighted Optimization Method for Computational Learning
and Inversion
- arxiv url: http://arxiv.org/abs/2201.09223v1
- Date: Sun, 23 Jan 2022 10:35:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 17:47:54.549299
- Title: A Generalized Weighted Optimization Method for Computational Learning
and Inversion
- Title(参考訳): 計算学習とインバージョンのための一般化重み付き最適化法
- Authors: Kui Ren, Yunan Yang and Bj\"orn Engquist
- Abstract要約: 雑音データを用いた計算学習と逆変換のための一般化された重み付き最小二乗最適化法を解析する。
学習手法の一般化誤差に対する重み付け方式の影響を特徴付ける。
先行知識からの適切な重み付けが学習モデルの一般化能力を向上させることを実証する。
- 参考スコア(独自算出の注目度): 15.535124460414588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The generalization capacity of various machine learning models exhibits
different phenomena in the under- and over-parameterized regimes. In this
paper, we focus on regression models such as feature regression and kernel
regression and analyze a generalized weighted least-squares optimization method
for computational learning and inversion with noisy data. The highlight of the
proposed framework is that we allow weighting in both the parameter space and
the data space. The weighting scheme encodes both a priori knowledge on the
object to be learned and a strategy to weight the contribution of different
data points in the loss function. Here, we characterize the impact of the
weighting scheme on the generalization error of the learning method, where we
derive explicit generalization errors for the random Fourier feature model in
both the under- and over-parameterized regimes. For more general feature maps,
error bounds are provided based on the singular values of the feature matrix.
We demonstrate that appropriate weighting from prior knowledge can improve the
generalization capability of the learned model.
- Abstract(参考訳): 様々な機械学習モデルの一般化能力は、低パラメータと過パラメータの領域で異なる現象を示す。
本稿では,特徴回帰やカーネル回帰といった回帰モデルに着目し,ノイズデータを用いた計算学習と逆解析のための一般化重み付き最小二乗最適化法を解析する。
提案フレームワークのハイライトは、パラメータ空間とデータ空間の両方で重み付けを可能にすることである。
重み付け方式は、学習対象に関する事前知識と、損失関数における異なるデータポイントの寄与を重み付けするための戦略の両方を符号化する。
ここでは、重み付け方式が学習手法の一般化誤差に与える影響を特徴付け、アンダーパラメータ化とオーバーパラメータ化の両方でランダムフーリエ特徴モデルに対する明示的な一般化誤差を導出する。
より一般的な特徴写像に対して、誤差境界は特徴行列の特異値に基づいて与えられる。
先行知識からの適切な重み付けが学習モデルの一般化能力を向上させることを実証する。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Understanding Generalization of Federated Learning via Stability:
Heterogeneity Matters [1.4502611532302039]
一般化性能は、現実世界のアプリケーションに適用された機械学習モデルを評価する上で重要な指標である。
一般化性能は、現実世界のアプリケーションに適用された機械学習モデルを評価する上で重要な指標である。
論文 参考訳(メタデータ) (2023-06-06T16:12:35Z) - Provable Generalization of Overparameterized Meta-learning Trained with
SGD [62.892930625034374]
我々は、広く使われているメタラーニング手法、モデル非依存メタラーニング(MAML)の一般化について研究する。
我々は、MAMLの過大なリスクに対して、上界と下界の両方を提供し、SGDダイナミクスがこれらの一般化境界にどのように影響するかをキャプチャする。
理論的知見は実験によってさらに検証される。
論文 参考訳(メタデータ) (2022-06-18T07:22:57Z) - Towards Data-Algorithm Dependent Generalization: a Case Study on
Overparameterized Linear Regression [19.047997113063147]
本稿では,データ依存学習軌跡全体の一般化挙動を考察したデータ-アルゴリズム整合性の概念を提案する。
我々は、データ依存軌道解析を行い、そのような環境での互換性に十分な条件を導出する。
論文 参考訳(メタデータ) (2022-02-12T12:42:36Z) - Learning to Refit for Convex Learning Problems [11.464758257681197]
ニューラルネットワークを用いて、異なるトレーニングセットに対して最適化されたモデルパラメータを推定するフレームワークを提案する。
我々は、凸問題を近似するためにニューラルネットワークのパワーを厳格に特徴づける。
論文 参考訳(メタデータ) (2021-11-24T15:28:50Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z) - Generalisation error in learning with random features and the hidden
manifold model [23.71637173968353]
合成データセットの一般線形回帰と分類について検討した。
我々は,高次元構造を考察し,統計物理学からのレプリカ法を用いる。
閾値をピークとしたロジスティック回帰のためのいわゆる二重降下挙動を得る方法を示す。
隠れ多様体モデルにより生成されたデータにおいて相関関係が果たす役割について論じる。
論文 参考訳(メタデータ) (2020-02-21T14:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。