論文の概要: Flat minima generalize for low-rank matrix recovery
- arxiv url: http://arxiv.org/abs/2203.03756v1
- Date: Mon, 7 Mar 2022 22:35:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 04:37:34.542509
- Title: Flat minima generalize for low-rank matrix recovery
- Title(参考訳): 低ランク行列回復のためのフラットミニマ一般化
- Authors: Lijun Ding, Dmitriy Drusvyatskiy, Maryam Fazel
- Abstract要約: ヘッセンのトレースによって測定された平坦なミニマは、標準的な統計的仮定の下で、基底の真理を正確に回復することを示す。
行列の完全化には弱い回復が確立されるが、実験的な証拠は正確な回復もここで成り立つことを示唆している。
- 参考スコア(独自算出の注目度): 16.956238550063365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Empirical evidence suggests that for a variety of overparameterized nonlinear
models, most notably in neural network training, the growth of the loss around
a minimizer strongly impacts its performance. Flat minima -- those around which
the loss grows slowly -- appear to generalize well. This work takes a step
towards understanding this phenomenon by focusing on the simplest class of
overparameterized nonlinear models: those arising in low-rank matrix recovery.
We analyze overparameterized matrix and bilinear sensing, robust PCA,
covariance matrix estimation, and single hidden layer neural networks with
quadratic activation functions. In all cases, we show that flat minima,
measured by the trace of the Hessian, exactly recover the ground truth under
standard statistical assumptions. For matrix completion, we establish weak
recovery, although empirical evidence suggests exact recovery holds here as
well. We complete the paper with synthetic experiments that illustrate our
findings.
- Abstract(参考訳): 経験的証拠は、ニューラルネットワークのトレーニングにおいて、様々な過パラメータの非線形モデルにおいて、最小化器周辺の損失の増大は、その性能に大きく影響することを示唆している。
平らなミニマ -- 損失がゆっくりと増加する -- は、うまく一般化しているように見える。
この研究は、この現象を理解するための一歩を踏み出し、超パラメータ非線形モデルの最も単純なクラス、すなわち低ランク行列の回復によって生じるものに焦点を当てる。
我々は,2次活性化関数を持つ過パラメータ行列と双線形センシング,ロバストPCA,共分散行列推定,単一隠れ層ニューラルネットワークを解析した。
いずれの場合も、ヘッセンのトレースによって測定された平坦なミニマは、標準的な統計的仮定の下で基底的真実を正確に回復する。
行列の完全化には弱い回復が確立されるが、実験的な証拠は正確な回復もここで成り立つことを示唆している。
論文は、我々の研究成果を示す合成実験で完成する。
関連論文リスト
- Simplicity Bias via Global Convergence of Sharpness Minimization [43.658859631741024]
ラベルノイズSGDは、2層ネットワークにおける損失ゼロのモデル多様体のシャープネスを常に最小化することを示す。
また、ゼロ損失多様体上の近似定常点における損失のヘッセンのトレースの新たな性質も見いだす。
論文 参考訳(メタデータ) (2024-10-21T18:10:37Z) - Minimum-Norm Interpolation Under Covariate Shift [14.863831433459902]
高次元線形回帰に関する非分布研究は、テキシトベニンオーバーフィッティング(textitbenign overfitting)として知られる現象の同定につながった。
本稿では,移動学習環境における線形補間器の非漸近的過剰リスク境界を初めて証明する。
論文 参考訳(メタデータ) (2024-03-31T01:41:57Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - The Inductive Bias of Flatness Regularization for Deep Matrix
Factorization [58.851514333119255]
この研究は、ディープ線形ネットワークにおけるヘッセン解の最小トレースの帰納バイアスを理解するための第一歩となる。
測定値の標準等尺性(RIP)が1より大きいすべての深さについて、ヘッセンのトレースを最小化することは、対応する終端行列パラメータのシャッテン 1-ノルムを最小化するのとほぼ同値であることを示す。
論文 参考訳(メタデータ) (2023-06-22T23:14:57Z) - Implicit Regularization for Group Sparsity [33.487964460794764]
正方形回帰損失に対する勾配勾配は, 明示的な正則化を伴わずに, 群間隔構造を持つ解に偏りを示す。
一般雑音設定における回帰問題の勾配ダイナミクスを解析し,最小最適誤差率を求める。
サイズ 1 群の退化の場合、我々の手法は疎線形回帰の新しいアルゴリズムを生み出す。
論文 参考訳(メタデータ) (2023-01-29T20:54:03Z) - An Unconstrained Layer-Peeled Perspective on Neural Collapse [20.75423143311858]
非拘束層列モデル (ULPM) と呼ばれるサロゲートモデルを導入する。
このモデル上の勾配流は、その大域的最小化器における神経崩壊を示す最小ノルム分離問題の臨界点に収束することを示す。
また,本研究の結果は,実世界のタスクにおけるニューラルネットワークのトレーニングにおいて,明示的な正規化や重み劣化が使用されない場合にも有効であることを示す。
論文 参考訳(メタデータ) (2021-10-06T14:18:47Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Entropy Minimizing Matrix Factorization [102.26446204624885]
NMF(Nonnegative Matrix Factorization)は、広く使用されているデータ分析技術であり、多くの実際のタスクで印象的な結果をもたらしました。
本研究では,上述の問題に対処するために,EMMF (Entropy Minimizing Matrix Factorization framework) を開発した。
通常、外れ値が通常のサンプルよりもはるかに小さいことを考えると、行列分解のために新しいエントロピー損失関数が確立される。
論文 参考訳(メタデータ) (2021-03-24T21:08:43Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。