論文の概要: Towards Neural Sparse Linear Solvers
- arxiv url: http://arxiv.org/abs/2203.06944v1
- Date: Mon, 14 Mar 2022 09:17:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 03:34:49.034810
- Title: Towards Neural Sparse Linear Solvers
- Title(参考訳): 神経スパース線形解法に向けて
- Authors: Luca Grementieri and Paolo Galeone
- Abstract要約: 本研究では, 疎対称線形系の近似解法を学習するために, ニューラルスパース線形解法を提案する。
我々の手法はスパース対称線形系を無向重み付きグラフとして表現することに依存する。
構造工学からの静的線形解析問題に対して,スパース線形解法を検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large sparse symmetric linear systems appear in several branches of science
and engineering thanks to the widespread use of the finite element method
(FEM). The fastest sparse linear solvers available implement hybrid iterative
methods. These methods are based on heuristic algorithms to permute rows and
columns or find a preconditioner matrix. In addition, they are inherently
sequential, making them unable to leverage the GPU processing power entirely.
We propose neural sparse linear solvers, a deep learning framework to learn
approximate solvers for sparse symmetric linear systems. Our method relies on
representing a sparse symmetric linear system as an undirected weighted graph.
Such graph representation is inherently permutation-equivariant and
scale-invariant, and it can become the input to a graph neural network trained
to regress the solution. We test neural sparse linear solvers on static linear
analysis problems from structural engineering. Our method is less accurate than
classic algorithms, but it is hardware-independent, fast on GPUs, and
applicable to generic sparse symmetric systems without any additional
hypothesis. Although many limitations remain, this study shows a general
approach to tackle problems involving sparse symmetric matrices using graph
neural networks.
- Abstract(参考訳): 大きなスパース対称線形系は有限要素法(FEM)が広く用いられているため、科学と工学のいくつかの分野に現れる。
最も速いスパース線形解法はハイブリッド反復法を実装している。
これらの方法は、行や列をパーミュレートしたり、プレコンディショナ行列を見つけるためのヒューリスティックアルゴリズムに基づいている。
さらに、これらは本質的にシーケンシャルであり、GPU処理能力を完全に活用できない。
本稿では,疎対称線形系の近似解法を学ぶための深層学習フレームワークであるneural sparse linear solversを提案する。
我々の手法はスパース対称線形系を無向重み付きグラフとして表現することに依存する。
このようなグラフ表現は本質的に置換同変でスケール不変であり、解を回帰するために訓練されたグラフニューラルネットワークへの入力となる。
構造工学から静的線形解析問題に対するニューラルネットワークスパース線形解法をテストする。
提案手法は従来のアルゴリズムよりも精度が低いが,ハードウェアに依存しず,GPU上で高速であり,余分な仮説のない汎用スパース対称システムに適用可能である。
多くの制限が残っているが、この研究はグラフニューラルネットワークを用いた疎対称行列問題に対する一般的なアプローチを示している。
関連論文リスト
- Neural incomplete factorization: learning preconditioners for the conjugate gradient method [2.899792823251184]
我々は、効率的なプレコンディショナーの生成を加速するためのデータ駆動型アプローチを開発する。
一般的に手動のプリコンディショナーをグラフニューラルネットワークの出力に置き換える。
本手法は, 行列の不完全分解を発生させ, 神経不完全分解(NeuralIF)と呼ばれる。
論文 参考訳(メタデータ) (2023-05-25T11:45:46Z) - Implicit Parameter-free Online Learning with Truncated Linear Models [51.71216912089413]
パラメータフリーアルゴリズムは、設定された学習率を必要としないオンライン学習アルゴリズムである。
そこで我々は,「単純」なフレーバーを持つ新しい更新によって,切り離された線形モデルを活用できる新しいパラメータフリーアルゴリズムを提案する。
後悔の新たな分解に基づいて、新しい更新は効率的で、各ステップで1つの勾配しか必要とせず、切り捨てられたモデルの最小値をオーバーシュートすることはない。
論文 参考訳(メタデータ) (2022-03-19T13:39:49Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Quantum Algorithm for Solving a Quadratic Nonlinear System of Equations [0.22940141855172036]
アルゴリズムの複雑さは$O(rm polylog(n/epsilon))$であり、これは次元$n$の最適古典アルゴリズムよりも指数関数的に改善される。
我々のアルゴリズムは指数関数的にQNSEの解を加速し、あらゆる非線形問題に適用できる。
論文 参考訳(メタデータ) (2021-12-03T00:27:16Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Optimization-Based Algebraic Multigrid Coarsening Using Reinforcement
Learning [0.0]
線型方程式の系は未知の集合上のグラフを定義する。
多重グリッドソルバの各レベルは、粗グラフの適切な選択と、粗表現への写像と演算子を必要とする。
粗いグラフ選択を条件として、AMGと制限演算子を直接学習できることが示されている。
グラフニューラルネットワーク(GNN)に基づく強化学習エージェントを用いたスパース手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T13:57:32Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Learning nonlinear dynamical systems from a single trajectory [102.60042167341956]
我々は、$x_t+1=sigma(Thetastarx_t)+varepsilon_t$という形の非線形力学系を学ぶアルゴリズムを導入する。
最適なサンプル複雑性と線形ランニング時間を持つ単一軌道から重み行列$Thetastar$を復元するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-30T10:42:48Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z) - Learning Algebraic Multigrid Using Graph Neural Networks [34.32501734380907]
我々は、そのような行列のクラス全体から長期演算子へのマッピングを学ぶために、単一のグラフニューラルネットワークを訓練する。
幅広い問題に対する実験では、古典的なAMGと比較して収束率が改善された。
論文 参考訳(メタデータ) (2020-03-12T12:36:48Z) - Multiple Metric Learning for Structured Data [0.0]
構造化データからメトリクスを学習しながらグラフと特徴空間情報を融合する問題に対処する。
本稿では,距離制約下での最適化のためのグラフベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T19:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。