論文の概要: STNet: Spectral Transformation Network for Solving Operator Eigenvalue Problem
- arxiv url: http://arxiv.org/abs/2510.23986v1
- Date: Tue, 28 Oct 2025 01:43:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.709892
- Title: STNet: Spectral Transformation Network for Solving Operator Eigenvalue Problem
- Title(参考訳): STNet:演算子固有値問題の解法のためのスペクトル変換ネットワーク
- Authors: Hong Wang, Jiang Yixuan, Jie Wang, Xinyi Li, Jian Luo, Huanshuo Dong,
- Abstract要約: 演算子固有値問題は、様々な科学分野や工学的応用において重要な役割を果たす。
最近のディープラーニング手法は、ニューラルネットワークを反復的に更新することで、この問題に対処するための効率的なアプローチを提供する。
本稿では,既存の学習手法を一貫して上回るスペクトル変換ネットワーク(STNet)を提案する。
- 参考スコア(独自算出の注目度): 10.27238431947351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Operator eigenvalue problems play a critical role in various scientific fields and engineering applications, yet numerical methods are hindered by the curse of dimensionality. Recent deep learning methods provide an efficient approach to address this challenge by iteratively updating neural networks. These methods' performance relies heavily on the spectral distribution of the given operator: larger gaps between the operator's eigenvalues will improve precision, thus tailored spectral transformations that leverage the spectral distribution can enhance their performance. Based on this observation, we propose the Spectral Transformation Network (STNet). During each iteration, STNet uses approximate eigenvalues and eigenfunctions to perform spectral transformations on the original operator, turning it into an equivalent but easier problem. Specifically, we employ deflation projection to exclude the subspace corresponding to already solved eigenfunctions, thereby reducing the search space and avoiding converging to existing eigenfunctions. Additionally, our filter transform magnifies eigenvalues in the desired region and suppresses those outside, further improving performance. Extensive experiments demonstrate that STNet consistently outperforms existing learning-based methods, achieving state-of-the-art performance in accuracy.
- Abstract(参考訳): 演算子固有値問題は様々な科学分野や工学的応用において重要な役割を果たすが、数値的手法は次元性の呪いによって妨げられている。
最近のディープラーニング手法は、ニューラルネットワークを反復的に更新することで、この問題に対処するための効率的なアプローチを提供する。
これらの方法のパフォーマンスは、与えられた演算子のスペクトル分布に大きく依存する: 演算子の固有値の間のより大きなギャップは精度を向上し、スペクトル分布を利用するように調整されたスペクトル変換は、その性能を向上させる。
そこで本研究では,スペクトル変換ネットワーク(STNet)を提案する。
それぞれのイテレーションにおいて、STNetは近似固有値と固有関数を使用して元の演算子にスペクトル変換を行い、等価だが簡単な問題へと変換する。
具体的にはデフレプロジェクションを用いて、既に解決された固有関数に対応する部分空間を除外し、探索空間を減らし、既存の固有関数に収束しないようにする。
さらに,フィルタ変換によって所望領域の固有値が拡大され,外部の値が抑制され,性能が向上する。
大規模な実験により、STNetは既存の学習ベースの手法を一貫して上回り、最先端のパフォーマンスを精度良く達成している。
関連論文リスト
- An Evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator Learning Network [7.1950116347185995]
本稿では,レプリカに基づく物理インフォームド演算子学習ネットワークのための進化的多目的最適化を提案する。
我々のフレームワークは、精度、ノイズ、不確実性を定量化する能力において、一般的な演算子学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-31T02:17:59Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Improving Expressive Power of Spectral Graph Neural Networks with Eigenvalue Correction [55.57072563835959]
本稿では,繰り返し入力される固有値の制約からフィルタを解放する固有値補正手法を提案する。
具体的には、提案した固有値補正戦略により、固有値の均一分布が向上し、フィルタの適合能力と表現力が向上する。
論文 参考訳(メタデータ) (2024-01-28T08:12:00Z) - Beyond Regular Grids: Fourier-Based Neural Operators on Arbitrary Domains [13.56018270837999]
本稿では,ニューラルネットワークを任意の領域に拡張する簡単な手法を提案する。
このような直接スペクトル評価の効率的な実装*は、既存のニューラル演算子モデルと結合する。
提案手法により,ニューラルネットワークを任意の点分布に拡張し,ベースライン上でのトレーニング速度を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T09:01:20Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Simpler is better: spectral regularization and up-sampling techniques
for variational autoencoders [1.2234742322758418]
ニューラルネットワークに基づく生成モデルのスペクトル挙動のキャラクタリゼーションは未解決のままである。
最近の研究は、生成的対向ネットワークと、実画像と生成画像の高周波の相違に重点を置いている。
変分オートエンコーダ(VAE)のための単純な2次元フーリエ変換に基づくスペクトル正規化損失を提案する。
論文 参考訳(メタデータ) (2022-01-19T11:49:57Z) - Reconstructing spectral functions via automatic differentiation [30.015034534260664]
ユークリッドグリーン関数からスペクトル関数を再構成することは、多体物理学において重要な逆問題である。
本稿では,プロパゲータオブザーバからのスペクトル再構成のための汎用ツールとして,自動微分(AD)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-29T18:09:49Z) - Pruning Redundant Mappings in Transformer Models via Spectral-Normalized
Identity Prior [54.629850694790036]
スペクトル正規化アイデンティティ事前 (SNIP) は、トランスフォーマーモデルにおける残余モジュール全体をアイデンティティマッピングに向けてペナライズする構造化プルーニング手法である。
5つのGLUEベンチマークタスクでBERTを用いて実験を行い、SNIPが同等の性能を維持しながら効率的な刈り取り結果が得られることを示した。
論文 参考訳(メタデータ) (2020-10-05T05:40:56Z) - Machine learning in spectral domain [4.724825031148412]
固有値のチューニングは、実際には、ニューラルネットワークのグローバルなトレーニングの実行に対応しています。
固有値に結合したスペクトル学習は、ディープニューラルネットワークの事前トレーニングにも使用できる。
論文 参考訳(メタデータ) (2020-05-29T07:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。