論文の概要: Algebraformer: A Neural Approach to Linear Systems
- arxiv url: http://arxiv.org/abs/2511.14263v1
- Date: Tue, 18 Nov 2025 08:53:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.020692
- Title: Algebraformer: A Neural Approach to Linear Systems
- Title(参考訳): Algebraformer: 線形システムに対するニューラルネットワーク
- Authors: Pietro Sittoni, Francesco Tudisco,
- Abstract要約: 本稿では,線形系の解法,特に条件が不整な解法の基本課題について検討する。
既存の空調システムの数値解法は、精度と安定性を確保するために、パラメータチューニング、プレコンディショニング、ドメイン固有の専門知識を必要とすることが多い。
本稿では,過酷な条件下でも線形システムをエンドツーエンドに解くことを学ぶトランスフォーマーベースのアーキテクチャであるAlgebraformerを提案する。
- 参考スコア(独自算出の注目度): 10.284321066857151
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work in deep learning has opened new possibilities for solving classical algorithmic tasks using end-to-end learned models. In this work, we investigate the fundamental task of solving linear systems, particularly those that are ill-conditioned. Existing numerical methods for ill-conditioned systems often require careful parameter tuning, preconditioning, or domain-specific expertise to ensure accuracy and stability. In this work, we propose Algebraformer, a Transformer-based architecture that learns to solve linear systems end-to-end, even in the presence of severe ill-conditioning. Our model leverages a novel encoding scheme that enables efficient representation of matrix and vector inputs, with a memory complexity of $O(n^2)$, supporting scalable inference. We demonstrate its effectiveness on application-driven linear problems, including interpolation tasks from spectral methods for boundary value problems and acceleration of the Newton method. Algebraformer achieves competitive accuracy with significantly lower computational overhead at test time, demonstrating that general-purpose neural architectures can effectively reduce complexity in traditional scientific computing pipelines.
- Abstract(参考訳): 近年のディープラーニングの研究は、エンド・ツー・エンドの学習モデルを用いて古典的なアルゴリズムタスクを解く新たな可能性を開いた。
本研究では,線形系の解法,特に不条件の解法の基本課題について検討する。
既存の空調システムの数値解法は、精度と安定性を確保するために、パラメータチューニング、プレコンディショニング、ドメイン固有の専門知識を必要とすることが多い。
本研究では,過酷な条件下でも線形システムをエンドツーエンドに解くことを学習するTransformerベースのアーキテクチャであるAlgebraformerを提案する。
我々のモデルは,行列とベクトル入力の効率的な表現を可能にする新しい符号化方式を活用し,メモリの複雑さは$O(n^2)$で,スケーラブルな推論をサポートする。
本稿では, 境界値問題に対するスペクトル法による補間タスクやニュートン法の高速化など, アプリケーション駆動線形問題に対する実効性を示す。
Algebraformerは、従来の科学計算パイプラインの複雑さを効果的に軽減できることを実証し、テスト時の計算オーバーヘッドを著しく低減した競合精度を実現する。
関連論文リスト
- Revisiting Orbital Minimization Method for Neural Operator Decomposition [19.86950069790711]
計算化学における固有値問題の解法として1990年代に提案されたインフォロビタル法(英語版)(OMM)と呼ばれる古典的最適化フレームワークを再考する。
我々は、ニューラルネットワークをトレーニングして正の半定値演算子を分解し、その実用的な利点を様々なベンチマークタスクで示すために、このフレームワークを適用した。
論文 参考訳(メタデータ) (2025-10-24T18:26:18Z) - Learning from Linear Algebra: A Graph Neural Network Approach to Preconditioner Design for Conjugate Gradient Solvers [40.6591136324878]
我々は,従来のプリコンディショナーよりもシステムの条件数を大幅に削減するプリコンディショナーを得るために,GNNを訓練する。
本手法は、パラメトリック偏微分方程式の重要なクラスにおいて、古典的およびニューラルネットワークに基づく手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-24T13:44:30Z) - A Neural Rewriting System to Solve Algorithmic Problems [47.129504708849446]
ネストされた数学的公式を解くための一般的な手順を学習するために設計されたモジュラーアーキテクチャを提案する。
シンボリック人工知能の古典的なフレームワークである書き換えシステムに触発され、アーキテクチャには3つの専門的で対話的なモジュールが含まれます。
我々は、系統的な一般化に特化した最近のモデルであるNeural Data Routerと、先進的なプロンプト戦略で探索された最先端の大規模言語モデル(GPT-4)とを比較した。
論文 参考訳(メタデータ) (2024-02-27T10:57:07Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Neural incomplete factorization: learning preconditioners for the conjugate gradient method [2.899792823251184]
我々は、効率的なプレコンディショナーの生成を加速するためのデータ駆動型アプローチを開発する。
一般的に手動のプリコンディショナーをグラフニューラルネットワークの出力に置き換える。
本手法は, 行列の不完全分解を発生させ, 神経不完全分解(NeuralIF)と呼ばれる。
論文 参考訳(メタデータ) (2023-05-25T11:45:46Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - A Deep Gradient Correction Method for Iteratively Solving Linear Systems [5.744903762364991]
本稿では, 方程式の大, 疎, 対称, 正定値線形系の解を近似する新しい手法を提案する。
我々のアルゴリズムは、少数の反復で与えられた許容度に残留する線形系を減少させることができる。
論文 参考訳(メタデータ) (2022-05-22T06:40:38Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Supervised DKRC with Images for Offline System Identification [77.34726150561087]
現代の力学系はますます非線形で複雑なものになりつつある。
予測と制御のためのコンパクトで包括的な表現でこれらのシステムをモデル化するフレームワークが必要である。
本手法は,教師付き学習手法を用いてこれらの基礎関数を学習する。
論文 参考訳(メタデータ) (2021-09-06T04:39:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。