論文の概要: A Deep Gradient Correction Method for Iteratively Solving Linear Systems
- arxiv url: http://arxiv.org/abs/2205.10763v1
- Date: Sun, 22 May 2022 06:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 20:16:02.020514
- Title: A Deep Gradient Correction Method for Iteratively Solving Linear Systems
- Title(参考訳): 線形系の反復解法における深い勾配補正法
- Authors: Ayano Kaneda, Osman Akar, Jingyu Chen, Victoria Kala, David Hyde,
Joseph Teran
- Abstract要約: 本稿では, 方程式の大, 疎, 対称, 正定値線形系の解を近似する新しい手法を提案する。
我々のアルゴリズムは、少数の反復で与えられた許容度に残留する線形系を減少させることができる。
- 参考スコア(独自算出の注目度): 5.744903762364991
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel deep learning approach to approximate the solution of
large, sparse, symmetric, positive-definite linear systems of equations. These
systems arise from many problems in applied science, e.g., in numerical methods
for partial differential equations. Algorithms for approximating the solution
to these systems are often the bottleneck in problems that require their
solution, particularly for modern applications that require many millions of
unknowns. Indeed, numerical linear algebra techniques have been investigated
for many decades to alleviate this computational burden. Recently, data-driven
techniques have also shown promise for these problems. Motivated by the
conjugate gradients algorithm that iteratively selects search directions for
minimizing the matrix norm of the approximation error, we design an approach
that utilizes a deep neural network to accelerate convergence via data-driven
improvement of the search directions. Our method leverages a carefully chosen
convolutional network to approximate the action of the inverse of the linear
operator up to an arbitrary constant. We train the network using unsupervised
learning with a loss function equal to the $L^2$ difference between an input
and the system matrix times the network evaluation, where the unspecified
constant in the approximate inverse is accounted for. We demonstrate the
efficacy of our approach on spatially discretized Poisson equations with
millions of degrees of freedom arising in computational fluid dynamics
applications. Unlike state-of-the-art learning approaches, our algorithm is
capable of reducing the linear system residual to a given tolerance in a small
number of iterations, independent of the problem size. Moreover, our method
generalizes effectively to various systems beyond those encountered during
training.
- Abstract(参考訳): 本稿では,方程式の大規模,スパース,対称,正定値線形系の解を近似する新しい深層学習手法を提案する。
これらの系は応用科学における多くの問題、例えば偏微分方程式の数値解法から生じる。
これらのシステムに対する解を近似するアルゴリズムは、その解を必要とする問題、特に数百万の未知数を必要とする現代のアプリケーションにおけるボトルネックとなることが多い。
実際、数値線形代数技術はこの計算負担を軽減するために何十年も研究されてきた。
近年、データ駆動技術もこれらの問題に期待している。
近似誤差の行列ノルムを最小化するために探索方向を反復的に選択する共役勾配アルゴリズムにより、深層ニューラルネットワークを用いて探索方向のデータ駆動改善による収束を加速するアプローチを設計する。
本手法は,線形作用素の逆作用を任意の定数まで近似するために,慎重に選択された畳み込みネットワークを利用する。
入力とシステム行列との$l^2$の差に等しい損失関数を持つ教師なし学習を用いてネットワークを訓練し、近似逆の未特定定数を計算した。
計算流体力学の応用において, 自由度数百万の空間離散ポアソン方程式に対する本手法の有効性を実証する。
最先端の学習手法とは異なり,本アルゴリズムは問題の大きさに依存しない少数の反復において,与えられた許容度に残留する線形系を低減できる。
さらに,本手法は,訓練中に遭遇するもの以外の様々なシステムに対して効果的に一般化する。
関連論文リスト
- A forward differential deep learning-based algorithm for solving high-dimensional nonlinear backward stochastic differential equations [0.6040014326756179]
我々は、高次元非線形後方微分方程式(BSDEs)を解くための新しい前方微分深層学習アルゴリズムを提案する。
差分深度学習がラベルとその導関数を入力に対して効率的に近似できるという事実により、BSDE問題を差分深度学習問題に変換する。
アルゴリズムの主な考え方は、オイラー・丸山法を用いて積分を離散化し、3つのディープニューラルネットワークを用いて未知の離散解を近似することである。
論文 参考訳(メタデータ) (2024-08-10T19:34:03Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - AMS-Net: Adaptive Multiscale Sparse Neural Network with Interpretable
Basis Expansion for Multiphase Flow Problems [8.991619150027267]
本研究では、物理過程の学習に応用可能な適応スパース学習アルゴリズムを提案し、大きなスナップショット空間を与えられた解のスパース表現を得る。
基本関数の情報は損失関数に組み込まれており、複数の時間ステップにおけるダウンスケール縮小次数解と参照解との差を最小限に抑える。
複雑なアプリケーションにおける提案手法の有効性と解釈性を示すため, 2相多相流問題に対してより数値的な実験を行った。
論文 参考訳(メタデータ) (2022-07-24T13:12:43Z) - AI-enhanced iterative solvers for accelerating the solution of large
scale parametrized linear systems of equations [0.0]
本稿では、最新のMLツールを活用し、線形方程式系の反復解法をカスタマイズする。
その結果,従来の反復解法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-07-06T09:47:14Z) - A deep branching solver for fully nonlinear partial differential
equations [0.1474723404975345]
完全非線形PDEの数値解に対する分岐アルゴリズムの多次元深層学習実装を提案する。
このアプローチは、任意の順序の勾配項を含む機能的非線形性に取り組むように設計されている。
論文 参考訳(メタデータ) (2022-03-07T09:46:46Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Learning Linearized Assignment Flows for Image Labeling [70.540936204654]
画像ラベリングのための線形化代入フローの最適パラメータを推定するための新しいアルゴリズムを提案する。
この式をKrylov部分空間と低ランク近似を用いて効率的に評価する方法を示す。
論文 参考訳(メタデータ) (2021-08-02T13:38:09Z) - Linear embedding of nonlinear dynamical systems and prospects for
efficient quantum algorithms [74.17312533172291]
有限非線形力学系を無限線型力学系(埋め込み)にマッピングする方法を述べる。
次に、有限線型系 (truncation) による結果の無限線型系を近似するアプローチを検討する。
論文 参考訳(メタデータ) (2020-12-12T00:01:10Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Enhancement of shock-capturing methods via machine learning [0.0]
我々は不連続解を用いてPDEをシミュレートするための改良された有限体積法を開発した。
5階WENO法の結果を改善するためにニューラルネットワークを訓練する。
数値解が過度に拡散するシミュレーションにおいて,本手法はWENOよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-02-06T21:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。