論文の概要: Wide flat minima and optimal generalization in classifying
high-dimensional Gaussian mixtures
- arxiv url: http://arxiv.org/abs/2010.14761v2
- Date: Tue, 17 Nov 2020 16:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 13:25:12.268025
- Title: Wide flat minima and optimal generalization in classifying
high-dimensional Gaussian mixtures
- Title(参考訳): 高次元ガウス混合物の分類における広幅な極小化と最適一般化
- Authors: Carlo Baldassi, Enrico M. Malatesta, Matteo Negri, Riccardo Zecchina
- Abstract要約: 非平衡クラスタにおいても,ベイズ最適一般化誤差を実現する構成が存在することを示す。
また,平均二乗誤差損失の幅の広い平らな最小値を目標とするアルゴリズム的ケースについても検討した。
- 参考スコア(独自算出の注目度): 8.556763944288116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze the connection between minimizers with good generalizing
properties and high local entropy regions of a threshold-linear classifier in
Gaussian mixtures with the mean squared error loss function. We show that there
exist configurations that achieve the Bayes-optimal generalization error, even
in the case of unbalanced clusters. We explore analytically the error-counting
loss landscape in the vicinity of a Bayes-optimal solution, and show that the
closer we get to such configurations, the higher the local entropy, implying
that the Bayes-optimal solution lays inside a wide flat region. We also
consider the algorithmically relevant case of targeting wide flat minima of the
(differentiable) mean squared error loss. Our analytical and numerical results
show not only that in the balanced case the dependence on the norm of the
weights is mild, but also, in the unbalanced case, that the performances can be
improved.
- Abstract(参考訳): 平均二乗誤差損失関数を持つガウス混合系における閾値線形分類器の高局所エントロピー領域と優れた一般化特性を持つ最小値間の接続を解析する。
非平衡クラスタにおいても,ベイズ最適一般化誤差を実現する構成が存在することを示す。
ベイズ最適解の近傍における誤差計数損失景観を解析的に検討し、そのような構成に近づくほど局所エントロピーが高くなり、ベイズ最適解が広い平坦な領域内に存在することを示す。
また,(微分可能な)平均二乗誤差損失の広い平坦な極小を対象とするアルゴリズム的に関連する場合についても考察する。
解析的および数値的な結果は、バランスの取れた場合、重量のノルムへの依存は軽度であるだけでなく、バランスの取れない場合には性能を改善することができることを示している。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Learning minimal volume uncertainty ellipsoids [1.6795461001108096]
パラメータ推定問題に対する不確実性領域の学習問題を考察する。
連立ガウスデータの仮定により、最適楕円体が条件平均を中心としていることが証明される。
より実践的な場合、最適楕円体を近似計算するための微分可能な最適化手法を提案する。
論文 参考訳(メタデータ) (2024-05-03T19:11:35Z) - Smoothing the Edges: Smooth Optimization for Sparse Regularization using Hadamard Overparametrization [10.009748368458409]
本稿では、(構造化された)空間性に対して、明示的に正規化された目的を円滑に最適化するためのフレームワークを提案する。
提案手法は,完全微分可能近似自由最適化を実現し,深層学習におけるユビキタス勾配降下パラダイムと互換性がある。
論文 参考訳(メタデータ) (2023-07-07T13:06:12Z) - Wasserstein Distributionally Robust Estimation in High Dimensions:
Performance Analysis and Optimal Hyperparameter Tuning [0.0]
雑音線形測定から未知パラメータを推定するための分布的ロバストな推定フレームワークを提案する。
このような推定器の2乗誤差性能を解析する作業に着目する。
凸凹最適化問題の解法として2乗誤差を復元できることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:02:59Z) - Distributed Sketching for Randomized Optimization: Exact
Characterization, Concentration and Lower Bounds [54.51566432934556]
我々はヘシアンの形成が困難である問題に対する分散最適化法を検討する。
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
論文 参考訳(メタデータ) (2022-03-18T05:49:13Z) - Hyperspectral Image Denoising Using Non-convex Local Low-rank and Sparse
Separation with Spatial-Spectral Total Variation Regularization [49.55649406434796]
本研究では,HSI復調のためのロバストな主成分分析のための新しい非特異なアプローチを提案する。
我々は、ランクとスパースコンポーネントの両方に対する正確な近似を開発する。
シミュレーションと実HSIの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-01-08T11:48:46Z) - Minimax Supervised Clustering in the Anisotropic Gaussian Mixture Model:
A new take on Robust Interpolation [5.98367009147573]
2成分異方性ガウス混合モデルに基づくクラスタリング問題について検討する。
その結果, 線形判別分析(LDA)分類器は, ミニマックス感において準最適であることが判明した。
論文 参考訳(メタデータ) (2021-11-13T05:19:37Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Entropic gradient descent algorithms and wide flat minima [6.485776570966397]
広い平坦領域に属する最小値に対応するベイズ最適点推定器が存在することを解析的に示す。
解析を広範囲な数値検証により深層学習シナリオに拡張する。
計算が容易な平坦度測定は、テスト精度と明確な相関を示す。
論文 参考訳(メタデータ) (2020-06-14T13:22:19Z) - Non-Convex SGD Learns Halfspaces with Adversarial Label Noise [50.659479930171585]
分布固有モデルにおいて,同種半空間の学習を代理する問題に対する解を示す。
任意の凸分布において、誤分類誤差は本質的にハーフスペースの誤分類誤差につながることを示す。
論文 参考訳(メタデータ) (2020-06-11T18:55:59Z) - Revisiting SGD with Increasingly Weighted Averaging: Optimization and
Generalization Perspectives [50.12802772165797]
平均化手法は、全ての反復解を一つの解に結合する。
実験は、他の平均化方式と比較して、トレードオフと平均化の有効性を示した。
論文 参考訳(メタデータ) (2020-03-09T18:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。