論文の概要: Spectral Analysis of the Weighted Frobenius Objective
- arxiv url: http://arxiv.org/abs/2509.16783v1
- Date: Sat, 20 Sep 2025 19:15:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.974989
- Title: Spectral Analysis of the Weighted Frobenius Objective
- Title(参考訳): 重み付きフロベニウス目標のスペクトル解析
- Authors: Vladislav Trifonov, Ivan Oseledets, Ekaterina Muravleva,
- Abstract要約: 反復解法を前提とした対称定値行列の近似のための重み付きフロベニウス損失の解析を行った。
解析の結果,各固有モードは対応する固有値の正方形によってスケールされ,固定誤差予算の下では,誤差が最大の固有値の方向に制限された場合にのみ損失が最小化されることがわかった。
- 参考スコア(独自算出の注目度): 2.7857707184602165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze a weighted Frobenius loss for approximating symmetric positive definite matrices in the context of preconditioning iterative solvers. Unlike the standard Frobenius norm, the weighted loss penalizes error components associated with small eigenvalues of the system matrix more strongly. Our analysis reveals that each eigenmode is scaled by the corresponding square of its eigenvalue, and that, under a fixed error budget, the loss is minimized only when the error is confined to the direction of the largest eigenvalue. This provides a rigorous explanation of why minimizing the weighted loss naturally suppresses low-frequency components, which can be a desirable strategy for the conjugate gradient method. The analysis is independent of the specific approximation scheme or sparsity pattern, and applies equally to incomplete factorizations, algebraic updates, and learning-based constructions. Numerical experiments confirm the predictions of the theory, including an illustration where sparse factors are trained by a direct gradient updates to IC(0) factor entries, i.e., no trained neural network model is used.
- Abstract(参考訳): 本研究では, 対称正定値行列を事前条件付き反復解法で近似するための重み付きフロベニウス損失の解析を行った。
標準的なフロベニウスノルムとは異なり、重み付き損失は系の行列の小さな固有値に関連する誤差成分をより強く罰する。
解析の結果,各固有モードは対応する固有値の正方形によってスケールされ,固定誤差予算の下では,誤差が最大の固有値の方向に制限された場合にのみ損失が最小化されることがわかった。
これは、重み付き損失を最小化することが低周波成分を自然に抑制する理由を厳格に説明し、共役勾配法にとって望ましい戦略である。
この分析は特定の近似スキームやスパーシティパターンとは独立であり、不完全分解、代数的更新、学習に基づく構成に等しく適用される。
数値実験により、この理論の予測が確認され、例えば、スパース因子がIC(0)ファクターエントリへの直接勾配更新によってトレーニングされる例、すなわち、トレーニングされたニューラルネットワークモデルが使用されない例がある。
関連論文リスト
- Extreme value theory for singular subspace estimation in the matrix denoising model [0.4297070083645049]
行列デノナイジングモデルにおける特異部分空間の細粒度推定について検討する。
我々は分布論を用いて、先頭特異ベクトルに符号化された低ランク信号構造の仮説を検証した。
論文 参考訳(メタデータ) (2025-07-26T15:28:36Z) - Generalization for Least Squares Regression With Simple Spiked Covariances [3.9134031118910264]
勾配降下によって訓練された2層ニューラルネットワークの一般化特性はいまだよく分かっていない。
最近の研究は、隠れた層における特徴行列のスペクトルを記述することで進展した。
しかし、スパイク共分散を持つ線形モデルの一般化誤差は以前には決定されていない。
論文 参考訳(メタデータ) (2024-10-17T19:46:51Z) - Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - The Inductive Bias of Flatness Regularization for Deep Matrix
Factorization [58.851514333119255]
この研究は、ディープ線形ネットワークにおけるヘッセン解の最小トレースの帰納バイアスを理解するための第一歩となる。
測定値の標準等尺性(RIP)が1より大きいすべての深さについて、ヘッセンのトレースを最小化することは、対応する終端行列パラメータのシャッテン 1-ノルムを最小化するのとほぼ同値であることを示す。
論文 参考訳(メタデータ) (2023-06-22T23:14:57Z) - Minimax Estimation of Linear Functions of Eigenvectors in the Face of
Small Eigen-Gaps [95.62172085878132]
固有ベクトル摂動解析は様々な統計データ科学の応用において重要な役割を果たす。
未知の固有ベクトルの任意の線型関数の摂動を特徴付ける統計理論の一組を開発する。
自然の「プラグイン」推定器に固有の非無視バイアス問題を緩和するために,非バイアス推定器を開発する。
論文 参考訳(メタデータ) (2021-04-07T17:55:10Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。