論文の概要: Shorting Dynamics and Structured Kernel Regularization
- arxiv url: http://arxiv.org/abs/2512.04874v1
- Date: Thu, 04 Dec 2025 15:02:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.23501
- Title: Shorting Dynamics and Structured Kernel Regularization
- Title(参考訳): ショーティングダイナミクスと構造化カーネル正規化
- Authors: James Tian,
- Abstract要約: 正作用素の誘導列は単調であり、完全分解を認め、古典的ショート演算子に収束する。
これにより、不変カーネルの構築とデータ解析における構造化正規化に対する演算子解析の統一化が実現される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper develops a nonlinear operator dynamic that progressively removes the influence of a prescribed feature subspace while retaining maximal structure elsewhere. The induced sequence of positive operators is monotone, admits an exact residual decomposition, and converges to the classical shorted operator. Transporting this dynamic to reproducing kernel Hilbert spaces yields a corresponding family of kernels that converges to the largest kernel dominated by the original one and annihilating the given subspace. In the finite-sample setting, the associated Gram operators inherit a structured residual decomposition that leads to a canonical form of kernel ridge regression and a principled way to enforce nuisance invariance. This gives a unified operator-analytic approach to invariant kernel construction and structured regularization in data analysis.
- Abstract(参考訳): 本稿では,最大構造を維持しつつ,所定の特徴部分空間の影響を段階的に除去する非線形作用素のダイナミクスを開発する。
正作用素の誘導列は単調であり、完全分解を認め、古典的ショート演算子に収束する。
このダイナミクスを再現されたカーネルへ輸送すると、ヒルベルト空間は対応するカーネルの族となり、元のカーネルが支配する最大のカーネルに収束し、与えられた部分空間を消滅する。
有限サンプル設定では、関連するグラム作用素は構造的残留分解を継承し、カーネルリッジ回帰の標準形式と、ニュアンス不変性を強制する原則的な方法をもたらす。
これにより、不変カーネルの構築とデータ解析における構造化正規化に対する演算子解析の統一化が実現される。
関連論文リスト
- Learning Operators by Regularized Stochastic Gradient Descent with Operator-valued Kernels [5.663076715852465]
ポーランド空間から分離可能なヒルベルト空間へ非線形作用素を推定するための正規収束エンコーダ降下(SGD)アルゴリズムについて検討する。
一般SGDスキームに対して高い確率で境界を導出する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-25T08:57:38Z) - High-Dimensional Kernel Methods under Covariate Shift: Data-Dependent Implicit Regularization [83.06112052443233]
本稿では,共変量シフト下での高次元におけるカーネルリッジの回帰について検討する。
バイアス分散分解により、再重み付け戦略が分散を減少させることができることを理論的に証明する。
偏見について,任意の偏見の正則化を解析し,偏見が正則化の異なる尺度で非常に異なる振る舞いをすることができることを示す。
論文 参考訳(メタデータ) (2024-06-05T12:03:27Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Rank Collapse Causes Over-Smoothing and Over-Correlation in Graph Neural Networks [3.566568169425391]
深さが大きくなると、ノード表現はアグリゲーション関数に依存するが特徴変換には依存しない低次元部分空間に支配されることが示される。
すべてのアグリゲーション関数について、ノード表現のランクは崩壊し、特定のアグリゲーション関数に対して過度に滑らかになる。
論文 参考訳(メタデータ) (2023-08-31T15:22:31Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Towards Understanding Generalization via Decomposing Excess Risk
Dynamics [13.4379473119565]
一般化力学を解析してアルゴリズム依存境界(安定性など)を導出する。
ニューラルネットは、ノイズの嵌合時に緩やかな収束率を示すという観測から着想を得て、余剰リスクダイナミクスを分解することを提案する。
分解の枠組みの下では、新しい境界は安定性に基づく境界と一様収束境界よりも理論的および経験的証拠とよく一致している。
論文 参考訳(メタデータ) (2021-06-11T03:42:45Z) - The kernel perspective on dynamic mode decomposition [4.051099980410583]
この写本は、クープマン作用素の動的モード分解(DMD)に関する理論的仮定を再考する。
各仮定に対して、仮定の制約性を示す反例が提供される。
DMDの新しいフレームワークは、RKHSよりも密に定義されたクープマン作用素のみを必要とする。
論文 参考訳(メタデータ) (2021-05-31T21:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。