論文の概要: Implicit Bias in Matrix Factorization and its Explicit Realization in a New Architecture
- arxiv url: http://arxiv.org/abs/2501.16322v2
- Date: Mon, 03 Nov 2025 18:57:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:25.964369
- Title: Implicit Bias in Matrix Factorization and its Explicit Realization in a New Architecture
- Title(参考訳): マトリックス因子化におけるインプリシットバイアスと新しいアーキテクチャにおける明示的実現
- Authors: Yikun Hou, Suvrit Sra, Alp Yurtsever,
- Abstract要約: 行列分解の勾配降下は、ほぼ低ランクな解に対する暗黙の偏りを示す。
Xapprox UDVtop$, $U$ と $V$ は標準球内で制約されるが、$D$ は対角因子である。
実験により、このモデルは常に強い暗黙のバイアスを示し、(およそ)低ランクの解をもたらすことが示されている。
- 参考スコア(独自算出の注目度): 25.10944177742897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient descent for matrix factorization exhibits an implicit bias toward approximately low-rank solutions. While existing theories often assume the boundedness of iterates, empirically the bias persists even with unbounded sequences. This reflects a dynamic where factors develop low-rank structure while their magnitudes increase, tending to align with certain directions. To capture this behavior in a stable way, we introduce a new factorization model: $X\approx UDV^\top$, where $U$ and $V$ are constrained within norm balls, while $D$ is a diagonal factor allowing the model to span the entire search space. Experiments show that this model consistently exhibits a strong implicit bias, yielding truly (rather than approximately) low-rank solutions. Extending the idea to neural networks, we introduce a new model featuring constrained layers and diagonal components that achieves competitive performance on various regression and classification tasks while producing lightweight, low-rank representations.
- Abstract(参考訳): 行列分解の勾配降下は、ほぼ低ランクな解に対する暗黙の偏りを示す。
既存の理論はしばしば反復の有界性を仮定するが、経験的にバイアスは非有界列でも持続する。
これは、要因が低ランク構造を発達する一方で、その大きさが増加し、ある方向と整合する傾向がある、というダイナミクスを反映している。
この動作を安定的に捉えるために,$X\approx UDV^\top$, $U$ と $V$ はノルムボール内で制約されるが, $D$ は検索空間全体にわたってモデルを拡張可能な対角係数である。
実験により、このモデルは常に強い暗黙のバイアスを示し、(およそ)低ランクの解をもたらすことが示されている。
このアイデアをニューラルネットワークに拡張し、軽量で低ランクな表現を生成しながら、様々な回帰および分類タスクにおける競合性能を実現する、制約された層と対角成分を特徴とする新しいモデルを導入する。
関連論文リスト
- Unregularized Linear Convergence in Zero-Sum Game from Preference Feedback [50.89125374999765]
NLHFにおける最適乗算重み更新(mathtOMWU$)に対する最初の収束保証を提供する。
本分析では, 稀に発生する行動の確率が指数関数的に小さい値から指数関数的に増大する新たな限界収束挙動を同定する。
論文 参考訳(メタデータ) (2025-12-31T12:08:29Z) - Gradient Descent as a Perceptron Algorithm: Understanding Dynamics and Implicit Acceleration [67.12978375116599]
勾配降下(GD)のステップが一般化されたパーセプトロンアルゴリズムのステップに還元されることを示す。
これは、ニューラルネットワークで観測される最適化力学と暗黙の加速現象を説明するのに役立つ。
論文 参考訳(メタデータ) (2025-12-12T14:16:35Z) - Generalization in Representation Models via Random Matrix Theory: Application to Recurrent Networks [7.721672385781673]
まず,固定された特徴表現(凍結中間層)と学習可能な読み出し層を用いたモデルの一般化誤差について検討する。
一般化誤差に対する閉形式式を導出するためにランダム行列理論を適用する。
次に、この解析を繰り返し表現に適用し、その性能を特徴付ける簡潔な公式を得る。
論文 参考訳(メタデータ) (2025-11-04T09:30:31Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - T-Rex: Fitting a Robust Factor Model via Expectation-Maximization [0.0]
統計的因子モデルに頑健に適合する新しい予測最大化(EM)アルゴリズムを提案する。
我々のアプローチは、楕円分布に対する散乱行列のタイラーのM-推定器に基づいている。
合成例と実例の両方について数値実験を行った。
論文 参考訳(メタデータ) (2025-05-17T18:53:06Z) - Subspace-Constrained Quadratic Matrix Factorization: Algorithm and Applications [1.689629482101155]
多様体学習における課題に対処するために,部分空間制約付き二次行列分解モデルを提案する。
このモデルは、接空間、正規部分空間、二次形式を含む重要な低次元構造を共同で学習するように設計されている。
その結果,本モデルは従来の手法よりも優れており,コア低次元構造を捉える上での頑健さと有効性を強調した。
論文 参考訳(メタデータ) (2024-11-07T13:57:53Z) - Implicit Regularization for Tubal Tensor Factorizations via Gradient Descent [4.031100721019478]
遅延学習体制を超えて過度にパラメータ化されたテンソル分解問題における暗黙正則化の厳密な解析を行う。
勾配流ではなく勾配降下の種別の最初のテンソル結果を証明する。
論文 参考訳(メタデータ) (2024-10-21T17:52:01Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Layered Models can "Automatically" Regularize and Discover Low-Dimensional Structures via Feature Learning [6.109362130047454]
入力が線形変換を行い、次に非線形写像によって出力を予測する2層非パラメトリック回帰モデルについて検討する。
2層モデルが正規化を「自動的に」誘導し,特徴学習を容易にすることを示す。
論文 参考訳(メタデータ) (2023-10-18T06:15:35Z) - Deep Neural Networks for Nonparametric Interaction Models with Diverging
Dimension [6.939768185086753]
成長次元シナリオ (d$ grows with $n$ but at a slow rate) と高次元 (dgtrsim n$) の両方において、$kth$オーダーの非パラメトリック相互作用モデルを分析する。
特定の標準仮定の下では、デバイアスドディープニューラルネットワークは、$(n, d)$の両面において、極小値の最適値を達成している。
論文 参考訳(メタデータ) (2023-02-12T04:19:39Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Intrinsic dimensionality and generalization properties of the
$\mathcal{R}$-norm inductive bias [4.37441734515066]
$mathcalR$-normは、2層ニューラルネットワークの誘導バイアスの基礎である。
これらの補間子は,データに適合するリッジ関数があっても,本質的に多変量関数であることがわかった。
論文 参考訳(メタデータ) (2022-06-10T18:33:15Z) - Origins of Low-dimensional Adversarial Perturbations [17.17170592140042]
分類における低次元対向摂動現象について検討した。
目標は、分類器を騙して、指定されたクラスからの入力のゼロではない割合でその決定を反転させることである。
任意の部分空間のばかばかし率の低いバウンドを計算する。
論文 参考訳(メタデータ) (2022-03-25T17:02:49Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - On the Role of Optimization in Double Descent: A Least Squares Study [30.44215064390409]
最小二乗対象の降下勾配解に対して過大なリスクを負うことを示す。
ノイズのない回帰の場合、二重降下は最適化関連量によってのみ説明される。
ニューラルネットワークの予測が保たれているかどうかを実証的に調査する。
論文 参考訳(メタデータ) (2021-07-27T09:13:11Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。