論文の概要: Deep Eigenspace Network and Its Application to Parametric Non-selfadjoint Eigenvalue Problems
- arxiv url: http://arxiv.org/abs/2512.20058v1
- Date: Tue, 23 Dec 2025 05:20:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.75508
- Title: Deep Eigenspace Network and Its Application to Parametric Non-selfadjoint Eigenvalue Problems
- Title(参考訳): 深部固有空間ネットワークとパラメトリック非自己随伴固有値問題への応用
- Authors: H. Li, J. Sun, Z. Zhang,
- Abstract要約: パラメトリック非自己随伴固有値問題を効率的に解くための演算子学習について検討する。
個々の固有関数ではなく、安定な不変固有部分空間写像を学習するハイブリッドフレームワークを導入する。
- 参考スコア(独自算出の注目度): 0.12744523252873352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider operator learning for efficiently solving parametric non-selfadjoint eigenvalue problems. To overcome the spectral instability and mode switching inherent in non-selfadjoint operators, we introduce a hybrid framework that learns the stable invariant eigensubspace mapping rather than individual eigenfunctions. We proposed a Deep Eigenspace Network (DEN) architecture integrating Fourier Neural Operators, geometry-adaptive POD bases, and explicit banded cross-mode mixing mechanisms to capture complex spectral dependencies on unstructured meshes. We apply DEN to the parametric non-selfadjoint Steklov eigenvalue problem and provide theoretical proofs for the Lipschitz continuity of the eigensubspace with respect to the parameters. In addition, we derive error bounds for the reconstruction of the eigenspace. Numerical experiments validate DEN's high accuracy and zero-shot generalization capabilities across different discretizations.
- Abstract(参考訳): パラメトリック非自己随伴固有値問題を効率的に解くための演算子学習について検討する。
非自己共役作用素に固有のスペクトル不安定性とモード切替を克服するために,個々の固有関数ではなく,安定な不変な固有部分空間写像を学習するハイブリッドフレームワークを導入する。
我々は、フーリエニューラル演算子、幾何適応型PODベース、および非構造メッシュ上の複雑なスペクトル依存性をキャプチャするための明示的なバンド付きクロスモード混合機構を統合したDeep Eigenspace Network (DEN)アーキテクチャを提案する。
DEN をパラメトリック非自己共役ステクロフ固有値問題に適用し、パラメータに関して固有部分空間のリプシッツ連続性の理論的証明を与える。
さらに、固有空間の再構成のための誤差境界を導出する。
数値実験により、DENの高精度かつゼロショットの一般化能力は異なる離散化にまたがって検証される。
関連論文リスト
- The Procrustean Bed of Time Series: The Optimization Bias of Point-wise Loss [53.542743390809356]
本稿では,最適化バイアス(EOB)の期待に関する第一原理解析を提案する。
時間列が決定論的で構造化されるほど、ポイントワイドの損失関数によるバイアスがより厳しくなる。
本稿では,DFTとDWTの両原理を同時に実現する具体的ソリューションを提案する。
論文 参考訳(メタデータ) (2025-12-21T06:08:22Z) - Learning Eigenstructures of Unstructured Data Manifolds [47.81117132002129]
非構造化データから形状と多様体解析のスペクトル基底を学習する新しいフレームワークを提案する。
従来の演算子選択,構築,固有分解を学習に基づくアプローチで置き換えることによって,我々のフレームワークは従来のパイプラインに代わる,原則的,データ駆動的な代替手段を提供する。
論文 参考訳(メタデータ) (2025-11-30T22:06:49Z) - Architecture independent generalization bounds for overparametrized deep ReLU networks [0.9687141267566189]
過度パラメータ化ニューラルネットワークは、過度パラメータ化のレベルに依存しないテストエラーで一般化できることを示す。
入力空間次元で有界なトレーニングサンプルサイズを持つ過度にパラメータ化された深部ReLUネットワークに対して、勾配勾配を使わずにゼロ損失最小化器を明示的に構築する。
論文 参考訳(メタデータ) (2025-04-08T05:37:38Z) - On the Convergence of Hermitian Dynamic Mode Decomposition [4.028503203417233]
自己随伴クープマン作用素のスペクトル特性に対するエルミート力学モード分解の収束性について検討する。
2次元シュリンガー方程式に適用して数値的な結果を示す。
論文 参考訳(メタデータ) (2024-01-06T11:13:16Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。