論文の概要: SVD-NO: Learning PDE Solution Operators with SVD Integral Kernels
- arxiv url: http://arxiv.org/abs/2511.10025v1
- Date: Fri, 14 Nov 2025 01:26:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.647657
- Title: SVD-NO: Learning PDE Solution Operators with SVD Integral Kernels
- Title(参考訳): SVD-NO:SVD積分カーネルを用いたPDEソリューション演算子学習
- Authors: Noam Koren, Ralf J. J. Mackenbach, Ruud J. G. van Sloun, Kira Radinsky, Daniel Freedman,
- Abstract要約: 本稿では,その特異値分解(SVD)によってカーネルをパラメータ化し,その積分を直接ローランクベースで実行するニューラル演算子SVD-NOを提案する。
SVD-NOが全カーネルを近似すると、表現性の高いデグレーが得られる。
- 参考スコア(独自算出の注目度): 35.16133249685271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators have emerged as a promising paradigm for learning solution operators of partial differential equa- tions (PDEs) directly from data. Existing methods, such as those based on Fourier or graph techniques, make strong as- sumptions about the structure of the kernel integral opera- tor, assumptions which may limit expressivity. We present SVD-NO, a neural operator that explicitly parameterizes the kernel by its singular-value decomposition (SVD) and then carries out the integral directly in the low-rank basis. Two lightweight networks learn the left and right singular func- tions, a diagonal parameter matrix learns the singular values, and a Gram-matrix regularizer enforces orthonormality. As SVD-NO approximates the full kernel, it obtains a high de- gree of expressivity. Furthermore, due to its low-rank struc- ture the computational complexity of applying the operator remains reasonable, leading to a practical system. In exten- sive evaluations on five diverse benchmark equations, SVD- NO achieves a new state of the art. In particular, SVD-NO provides greater performance gains on PDEs whose solutions are highly spatially variable. The code of this work is publicly available at https://github.com/2noamk/SVDNO.git.
- Abstract(参考訳): ニューラル演算子は、データから直接偏微分赤外イオン(PDE)の解演算子を学ぶための有望なパラダイムとして登場した。
フーリエ法(英語版)やグラフ法(英語版)に基づく既存の手法は、表現性を制限できる仮定であるカーネル積分オペラトーラの構造について強い仮定を行う。
本稿では,その特異値分解(SVD)によってカーネルを明示的にパラメータ化し,その積分を直接ローランクベースで実行するニューラル演算子SVD-NOを提案する。
2つの軽量ネットワークは、左右の特異菌類-イオンを学習し、対角行列は特異値を学習し、グラム行列正規化器は正則性を強制する。
SVD-NOが全カーネルを近似すると、表現性の高いデグレーが得られる。
さらに、その低ランクストラクチャーにより、演算子を適用する計算複雑性は依然として妥当であり、実用的なシステムに繋がる。
SVD-NOは5つの多種多様なベンチマーク方程式に対する拡張型評価において、新しい最先端を達成している。
特に、SVD-NOは、空間的に非常に可変なPDEに対してより優れた性能をもたらす。
この作業のコードはhttps://github.com/2noamk/SVDNO.gitで公開されている。
関連論文リスト
- A Kernel-based Stochastic Approximation Framework for Nonlinear Operator Learning [7.820614736576814]
一般メルサー作用素値カーネルを用いた無限次元空間間の近似フレームワークを開発する。
この枠組みでは, 非線形演算子学習が次元性の呪いを克服できることを実証し, 次元自由収束率を確立する。
このフレームワークは、積分演算子からエンコーダ-デコーダ表現に基づくアーキテクチャまで、幅広い演算子学習タスクに対応している。
論文 参考訳(メタデータ) (2025-09-14T03:33:36Z) - Efficient Parametric SVD of Koopman Operator for Stochastic Dynamical Systems [51.54065545849027]
クープマン作用素は非線形力学系を解析するための原理的なフレームワークを提供する。
VAMPnet と DPNet はクープマン作用素の主特異部分空間を学ぶために提案されている。
我々は、クープマン作用素のトップ$kの特異関数を学ぶためのスケーラブルで概念的にシンプルな方法を提案する。
論文 参考訳(メタデータ) (2025-07-09T18:55:48Z) - Redefining Neural Operators in $d+1$ Dimensions [16.36239488071517]
我々は、Schr"オーディンジェライゼーション法に基づいて、新しい$d+1$次元領域上でニューラル作用素を再定義する。
このフレームワーク内では、$d+1$の次元展開と整合したSchr"odingerized Kernel Neural Operator (SKNO)を実装している。
実験では、SKNO における $d+1$ 次元の進化的設計は、他のベースラインよりも一貫して優れている。
論文 参考訳(メタデータ) (2025-05-17T00:15:00Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Kernel Neural Operators (KNOs) for Scalable, Memory-efficient, Geometrically-flexible Operator Learning [11.165984223900104]
本稿では,KNO(Kernel Neural Operator)について紹介する。
KNOは、数値積分スキーム(四分数)からカーネルの選択を分離する
既存のベンチマークでは、KNOsのトレーニングとテストの精度は、一般的な演算子学習技術と同等かそれ以上であることを示す。
論文 参考訳(メタデータ) (2024-06-30T19:28:12Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Convolutional Neural Operators for robust and accurate learning of PDEs [11.562748612983956]
本稿では、入力や出力として関数を処理する畳み込みニューラルネットワークの新しい適応法を提案する。
結果として生じるアーキテクチャは、畳み込みニューラル演算子(CNO)と呼ばれる。
普遍性定理を証明し、CNOが PDE で生じる作用素を所望の精度で近似できることを示す。
論文 参考訳(メタデータ) (2023-02-02T15:54:45Z) - Why Approximate Matrix Square Root Outperforms Accurate SVD in Global
Covariance Pooling? [59.820507600960745]
本稿では,前方通過のSVDと後方伝播のPad'e近似を用いて勾配を計算する新しいGCPメタ層を提案する。
提案するメタレイヤは,さまざまなCNNモデルに統合され,大規模および微細なデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-06T08:03:45Z) - Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality
Regularization and Singular Value Sparsification [53.50708351813565]
各ステップにSVDを適用することなく、トレーニング中に低ランクDNNを明示的に達成する最初の方法であるSVDトレーニングを提案する。
SVDトレーニングがDNN層のランクを著しく低減し,同じ精度で計算負荷の低減を実現することを実証的に示す。
論文 参考訳(メタデータ) (2020-04-20T02:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。