論文の概要: A level-wise training scheme for learning neural multigrid smoothers with application to integral equations
- arxiv url: http://arxiv.org/abs/2603.01064v1
- Date: Sun, 01 Mar 2026 11:45:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.488919
- Title: A level-wise training scheme for learning neural multigrid smoothers with application to integral equations
- Title(参考訳): ニューラル・マルチグリッド・スムーダ学習のためのレベルワイド学習法と積分方程式への応用
- Authors: Lingfeng Li, Yin King Chu, Raymond Chan, Justin Wan,
- Abstract要約: 畳み込み型積分方程式は一般に信号処理や画像処理で起こる。
本稿では,従来のスムースラーに代えて,学習したニューラル演算子を代替する新しいニューラル乗法を提案する。
従来のスムーダーとは異なり、これらのオペレータはオフラインでトレーニングされる。トレーニングが終わると、ニューラルスムーダーはリトレーニングなしで新しい右サイドベクターに一般化され、効率的な解法となる。
- 参考スコア(独自算出の注目度): 0.5504341618778957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolution-type integral equations commonly occur in signal processing and image processing. Discretizing these equations yields large and ill-conditioned linear systems. While the classic multigrid method is effective for solving linear systems derived from partial differential equations (PDE) problems, it fails to solve integral equations because its smoothers, which are implemented as conventional relaxation methods, are ineffective in reducing high-frequency components in the errors. We propose a novel neural multigrid scheme where learned neural operators replace classical smoothers. Unlike classical smoothers, these operators are trained offline. Once trained, the neural smoothers generalize to new right-hand-side vectors without retraining, making it an efficient solver. We design level-wise loss functions incorporating spectral filtering to emulate the multigrid frequency decomposition principle, ensuring each operator focuses on solving distinct high-frequency spectral bands. Although we focus on integral equations, the framework is generalizable to all kinds of problems, including PDE problems. Our experiments demonstrate superior efficiency over classical solvers and robust convergence across varying problem sizes and regularization weights.
- Abstract(参考訳): 畳み込み型積分方程式は一般に信号処理や画像処理で起こる。
これらの方程式の離散化は、大きく、不条件の線形系をもたらす。
古典的多重グリッド法は偏微分方程式(PDE)問題から導かれる線形系を解くのに有効であるが, 従来の緩和法として実装されたスムーズ性は, 誤差の高周波成分の低減に有効ではないため, 積分方程式を解くのに失敗する。
本稿では,従来のスムースラーに代えて,学習したニューラル演算子を代替する新しいニューラル乗法を提案する。
古典的なスムーズな演算子とは異なり、これらの演算子はオフラインで訓練される。
トレーニングが完了すると、神経スムーダーはリトレーニングなしで新しい右手ベクトルに一般化され、効率的な解法となる。
スペクトルフィルタを取り入れたレベルワイド損失関数を設計し、マルチグリッド周波数分解原理をエミュレートする。
我々は積分方程式にフォーカスするが、このフレームワークはPDE問題を含むあらゆる種類の問題に一般化可能である。
本実験は,古典解法よりも優れた効率性を示し,様々な問題サイズと正規化重みにまたがる頑健な収束を示した。
関連論文リスト
- DInf-Grid: A Neural Differential Equation Solver with Differentiable Feature Grids [73.28614344779076]
我々は、微分方程式(DE)を効率的に解くための微分可能グリッドベース表現を提案する。
その結果,座標法よりも5~20倍の高速化を実現し,差分方程式を数秒または数分で解き,精度とコンパクト性を維持した。
論文 参考訳(メタデータ) (2026-01-15T18:59:57Z) - Efficient PINNs via Multi-Head Unimodular Regularization of the Solutions Space [0.6474760227870044]
非線形多スケール微分方程式の解法を容易にする機械学習フレームワークを提案する。
このフレームワークはtextitmulti-head (MH) トレーニングと呼ばれるものに基づいており、すべてのソリューションの一般的な空間を学習するためにネットワークをトレーニングする。
マルチヘッド方式と一様正則化を組み合わせることで,PINNの効率が大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-01-21T13:25:56Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Blending Neural Operators and Relaxation Methods in PDE Numerical Solvers [3.2712166248850685]
HINTSは偏微分方程式のハイブリッド、反復、数値、移乗可能な解法である。
DeepONetのスペクトルバイアスを利用して固有モードのスペクトル間の収束挙動のバランスをとる。
離散化、計算領域、境界条件に関して柔軟である。
論文 参考訳(メタデータ) (2022-08-28T19:07:54Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Unsupervised Reservoir Computing for Solving Ordinary Differential
Equations [1.6371837018687636]
通常の微分方程式(ODE)を満たす近似解を発見することができるエコー状態のリカレントニューラルネットワーク
ベイジアン最適化を用いて高次元ハイパーパラメータ空間における最適集合を効率よく発見し、1つの集合がロバストであり、異なる初期条件と時間範囲のODEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-08-25T18:16:42Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Learning optimal multigrid smoothers via neural networks [1.9336815376402723]
畳み込みニューラルネットワーク(CNN)による演算子ステンシルから最適化されたスムーナを学習するための効率的なフレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小さな問題を訓練する。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
論文 参考訳(メタデータ) (2021-02-24T05:02:54Z) - Deep neural network for solving differential equations motivated by
Legendre-Galerkin approximation [16.64525769134209]
線形微分方程式と非線形微分方程式の両方における様々なニューラルネットワークアーキテクチャの性能と精度について検討する。
我々は、微分方程式の解を予測するために、新しいレジェンダ-ガレルキンディープニューラルネットワーク(LGNet)アルゴリズムを実装した。
論文 参考訳(メタデータ) (2020-10-24T20:25:09Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。