論文の概要: Use of operator defect identities in multi-channel signal plus residual-analysis via iterated products and telescoping energy-residuals: Applications to kernels in machine learning
- arxiv url: http://arxiv.org/abs/2601.18080v1
- Date: Mon, 26 Jan 2026 02:27:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.620856
- Title: Use of operator defect identities in multi-channel signal plus residual-analysis via iterated products and telescoping energy-residuals: Applications to kernels in machine learning
- Title(参考訳): 多チャンネル信号と反復生成物およびテレスコープエネルギー残像による残余分析における演算子欠陥の同定 : 機械学習におけるカーネルへの応用
- Authors: Palle E. T. Jorgensen, Myung-Sin Song, James F. Tian,
- Abstract要約: 本稿では, 固有部分分割を持つ複雑なシステムの解析のための新しい演算子理論フレームワークを提案する。
我々は、許容/有効性をもたらす新しい結果が証明され、エネルギー残基に新たなaプレオリバウンダリが与えられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new operator theoretic framework for analysis of complex systems with intrinsic subdivisions into components, taking the form of "residuals" in general, and "telescoping energy residuals" in particular. We prove new results which yield admissibility/effectiveness, and new a priori bounds on energy residuals. Applications include infinite-dimensional Kaczmarz theory for $λ_{n}$-relaxed variants, and $λ_{n}$-effectiveness. And we give applications of our framework to generalized machine learning algorithms, greedy Kernel Principal Component Analysis (KPCA), proving explicit convergence results, residual energy decomposition, and criteria for stability under noise.
- Abstract(参考訳): 本稿では, 固有部分分割を持つ複雑系を成分に分解し, 一般に「残留物」の形式を採り, 特に「余剰エネルギーのテレスコープ化」を行うための新しい演算子理論フレームワークを提案する。
我々は、許容/有効性をもたらす新しい結果が証明され、エネルギー残基に新しいaプレオリバウンダリが与えられる。
応用には、$λ_{n}$-relaxed variants と $λ_{n}$- Effectiveness に対する無限次元カツマルツ理論が含まれる。
また、一般化された機械学習アルゴリズム、グレーディ・ケルン主成分分析(KPCA)、明示的な収束結果の証明、残エネルギー分解、雑音下での安定性の基準へのフレームワークの適用について述べる。
関連論文リスト
- Contraction, Criticality, and Capacity: A Dynamical-Systems Perspective on Echo-State Networks [13.857230672081489]
本稿では,機能解析,ランダム・アトラクタ理論,最近の神経科学的な知見を融合した統合的動的システム治療について述べる。
まず,大域リプシッツ力学とともにエコー状態特性(初期条件の洗い出し)がフェーディングメモリ特性をもたらすことを証明した。
第二に、ストーン・ワイエルシュトラスの戦略を用いて、非線形貯水池と線形リードアウトを持つESNが、因果的、タイムイン・フェイディング・メモリ・フィルタのバナッハ空間に密着していることを示す。
第3に、メモリ容量スペクトルを用いて計算資源を定量化し、どのように示すかを示す。
論文 参考訳(メタデータ) (2025-07-24T14:41:18Z) - Non-Asymptotic Stability and Consistency Guarantees for Physics-Informed Neural Networks via Coercive Operator Analysis [0.0]
物理インフォームドニューラルネットワーク(PINN)の安定性と一貫性を解析するための統一的理論的枠組みを提案する。
PINNは、サンプルコロケーションと境界点上の残留損失を最小限に抑え、偏微分方程式(PDE)の近似解を求める。
我々は、整合性の作用素レベルと変分の概念の両方を形式化し、ソボレフノルムの残留最小化が、穏やかな正則性の下でエネルギーと一様ノルムの収束をもたらすことを証明した。
論文 参考訳(メタデータ) (2025-06-16T14:41:15Z) - Beyond Discreteness: Finite-Sample Analysis of Straight-Through Estimator for Quantization [2.8948274245812327]
この研究は、ニューラルネットワーク量子化の文脈におけるストレートスルー推定器(STE)の最初の有限サンプル解析を示す。
具体的には、2重みとアクティベーションを持つ2層ニューラルネットワークの量子化学習を解析することにより、データの次元性の観点から、サンプルの複雑さを導出する。
ラベルノイズの存在下では,STE-gradient法の興味深い再帰性を明らかにする。
論文 参考訳(メタデータ) (2025-05-23T17:11:22Z) - ResKoopNet: Learning Koopman Representations for Complex Dynamics with Spectral Residuals [1.8570740863168362]
高次元力学系のスペクトル成分を近似する方法は理論上の限界に直面していることが多い。
本稿では,コオプマン固有ペアを計算するために,スペクトル残差を明示的に最小化するResKoopNetを紹介する。
様々な物理的および生物学的システムの実験により、ResKoopNetは既存の方法よりも正確なスペクトル近似を達成している。
論文 参考訳(メタデータ) (2025-01-01T02:19:42Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Neural Characteristic Activation Analysis and Geometric Parameterization for ReLU Networks [2.2713084727838115]
本稿では,個々のニューロンの特徴的活性化境界を調べることによって,ReLUネットワークのトレーニングダイナミクスを解析するための新しいアプローチを提案する。
提案手法は,コンバージェンス最適化におけるニューラルネットワークのパラメータ化と正規化において重要な不安定性を示し,高速収束を阻害し,性能を損なう。
論文 参考訳(メタデータ) (2023-05-25T10:19:13Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。