論文の概要: Neural Multigrid Architectures
- arxiv url: http://arxiv.org/abs/2402.05563v1
- Date: Thu, 8 Feb 2024 11:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 15:27:36.971571
- Title: Neural Multigrid Architectures
- Title(参考訳): ニューラルマルチグリッドアーキテクチャ
- Authors: Vladimir Fanaskov
- Abstract要約: 我々は、高密度層を持たない固定ニューラルネットワークは効率的な反復的手法を実現することができないと論じる。
結果として得られるネットワークは、何千もの未知の線形問題で訓練することができ、数百万の未知の問題でその効率を維持することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a convenient matrix-free neural architecture for the multigrid
method. The architecture is simple enough to be implemented in less than fifty
lines of code, yet it encompasses a large number of distinct multigrid solvers.
We argue that a fixed neural network without dense layers can not realize an
efficient iterative method. Because of that, standard training protocols do not
lead to competitive solvers. To overcome this difficulty, we use parameter
sharing and serialization of layers. The resulting network can be trained on
linear problems with thousands of unknowns and retains its efficiency on
problems with millions of unknowns. From the point of view of numerical linear
algebra network's training corresponds to finding optimal smoothers for the
geometric multigrid method. We demonstrate our approach on a few second-order
elliptic equations. For tested linear systems, we obtain from two to five times
smaller spectral radius of the error propagation matrix compare to a basic
linear multigrid with Jacobi smoother.
- Abstract(参考訳): マルチグリッド手法に有用な行列フリーニューラルネットワークを提案する。
アーキテクチャは50行以下のコードで実装できるほどシンプルだが、多数の異なるマルチグリッド解決器を含んでいる。
高密度層を持たない固定ニューラルネットワークでは,効率的な反復手法が実現できない。
そのため、標準的なトレーニングプロトコルは、競争的な解決につながりません。
この難しさを克服するために、我々はパラメータ共有とレイヤのシリアライズを使う。
結果として生じるネットワークは、数千の未知の線形問題に対して訓練され、数百万の未知の問題の効率を維持することができる。
数値線形代数ネットワークのトレーニングの観点からは、幾何学的乗法における最適スムースラーの発見に対応する。
いくつかの二階楕円型方程式に対するアプローチを実証する。
実験線形系では,誤差伝播行列のスペクトル半径を2~5倍小さくし,ジャコビ平滑な基本線形マルチグリッドと比較した。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Multigrid-Augmented Deep Learning Preconditioners for the Helmholtz
Equation using Compact Implicit Layers [7.56372030029358]
高波動数に対する離散異種ヘルムホルツ方程式を解くためのディープラーニングに基づく反復的手法を提案する。
畳み込みカーネルが反転するU-Netの粗い格子上に暗黙の層を持つマルチレベルU-NetライクなエンコーダCNNを構築する。
我々のアーキテクチャは、様々な難易度の異なる低速モデルの一般化に利用することができ、低速モデルごとに多くの右辺を解くのに効率的である。
論文 参考訳(メタデータ) (2023-06-30T08:56:51Z) - Learning Relaxation for Multigrid [1.14219428942199]
ニューラルネットワークを用いて、ランダムな係数を持つ拡散作用素のアンサンブルの緩和パラメータを学習する。
比較的小さなグリッド上での学習緩和パラメータを2グリッド法とGerlfandの公式を損失関数として容易に実装できることを示す。
論文 参考訳(メタデータ) (2022-07-25T12:43:50Z) - Towards Neural Sparse Linear Solvers [0.0]
本研究では, 疎対称線形系の近似解法を学習するために, ニューラルスパース線形解法を提案する。
我々の手法はスパース対称線形系を無向重み付きグラフとして表現することに依存する。
構造工学からの静的線形解析問題に対して,スパース線形解法を検証した。
論文 参考訳(メタデータ) (2022-03-14T09:17:02Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Learning optimal multigrid smoothers via neural networks [1.9336815376402723]
畳み込みニューラルネットワーク(CNN)による演算子ステンシルから最適化されたスムーナを学習するための効率的なフレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小さな問題を訓練する。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
論文 参考訳(メタデータ) (2021-02-24T05:02:54Z) - Scaling the Convex Barrier with Sparse Dual Algorithms [141.4085318878354]
本稿では,ニューラルネットワークバウンダリングのための2つの新しい2重アルゴリズムを提案する。
どちらの方法も新しい緩和の強さを回復する: 厳密さと線形分離オラクル。
実行時間のほんの一部で、既製のソルバよりも優れた境界を得ることができます。
論文 参考訳(メタデータ) (2021-01-14T19:45:17Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z) - Learning Algebraic Multigrid Using Graph Neural Networks [34.32501734380907]
我々は、そのような行列のクラス全体から長期演算子へのマッピングを学ぶために、単一のグラフニューラルネットワークを訓練する。
幅広い問題に対する実験では、古典的なAMGと比較して収束率が改善された。
論文 参考訳(メタデータ) (2020-03-12T12:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。