論文の概要: Estimating condition number with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2603.10277v2
- Date: Sun, 15 Mar 2026 16:37:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 13:51:29.028771
- Title: Estimating condition number with Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークによる条件数の推定
- Authors: Erin Carson, Xinye Chen,
- Abstract要約: グラフニューラルネットワーク(GNN)を用いたスパース行列の条件数推定法を提案する。
GNNを用いて行列条件数を推定するための2つの予測スキームを提案する。1つは条件番号を分解し、より計算集約的な部分$|mathbfA-1|$を予測し、もう1つは条件番号$を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For large sparse matrices, we almost never compute the condition number exactly because that would require computing the full SVD or full eigenvalue decompositionIn this paper, we propose a fast method for estimating the condition number of sparse matrices using graph neural networks (GNNs). To enable efficient training and inference of GNNs, our proposed feature engineering for GNNs achieves $\mathrm{O}(\mathrm{nnz} + n)$, where $\mathrm{nnz}$ is the number of non-zero elements in the matrix and $n$ denotes the matrix dimension. We propose two prediction schemes for estimating the matrix condition number using GNNs. One follows by decomposing the condition number and predicts the relatively more computationally intensive part $\|\mathbf{A}^{-1}\|$, while the other is to predict the whole condition number $κ$. Our approach can be extended to an arbitrary norm. The extensive experiments for the two schemes are conducted for 1-norm and 2-norm condition number estimation, which show that our method achieves a significant speedup over the traditional numerical estimation methods.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(GNN)を用いたスパース行列の条件数推定手法を提案する。
GNNの効率的なトレーニングと推論を可能にするため、提案したGNNの機能工学は$\mathrm{O}(\mathrm{nnz} + n)$を達成し、$\mathrm{nnz}$は行列内のゼロでない要素の数であり、$n$は行列次元を表す。
GNNを用いて行列条件数を推定するための2つの予測手法を提案する。
1つは条件番号を分解し、より計算集約的な部分 $\|\mathbf{A}^{-1}\|$ を予測し、もう1つは条件番号$κ$ を予測することである。
我々のアプローチは任意の規範に拡張できる。
この2つのスキームの広範な実験は1ノルムと2ノルムの条件数推定に対して行われ、本手法が従来の数値推定法よりも大幅に高速化されていることを示す。
関連論文リスト
- Block encoding of sparse matrices with a periodic diagonal structure [67.45502291821956]
周期的な対角構造を持つスパース行列を符号化するための明示的な量子回路を提供する。
本手法の様々な応用は, 微分問題を解く文脈で論じる。
論文 参考訳(メタデータ) (2026-02-11T07:24:33Z) - S$^2$NN: Sub-bit Spiking Neural Networks [53.08060832135342]
スパイキングニューラルネットワーク(SNN)は、マシンインテリジェンスにエネルギー効率のよいパラダイムを提供する。
最近のバイナリSNNの進歩にもかかわらず、大規模ネットワークではストレージと計算の要求が相当に大きい。
1ビット未満の重みを表すサブビットスパイキングニューラルネットワーク(S$2$NNs)を提案する。
論文 参考訳(メタデータ) (2025-09-29T04:17:44Z) - Matrix Completion via Nonsmooth Regularization of Fully Connected Neural Networks [7.349727826230864]
ディープニューラルネットワークのような非線形推定器を使うことで、性能の向上が達成できることが示されている。
本稿では,標準中間表現の観点から,FCNNモデルの正規化によるオーバーフィット制御を行う。
本シミュレーションは,既存の線形および非線形アルゴリズムと比較して,提案アルゴリズムの優位性を示す。
論文 参考訳(メタデータ) (2024-03-15T12:00:37Z) - Graph Neural Networks and Applied Linear Algebra [1.8749305679160366]
グラフニューラルネットワーク(GNN)は、スパース行列計算に適したアプローチである。
本稿では,数値線形代数オーディエンスのためのGNNを紹介する。
具体例は、GNNを用いて、どれだけの共通線型代数タスクを達成できるかを示すものである。
論文 参考訳(メタデータ) (2023-10-21T18:37:56Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Learning Graph Neural Networks with Approximate Gradient Descent [24.49427608361397]
ラベルがノードまたはグラフに添付されているかどうかに応じて、2種類のグラフニューラルネットワーク(GNN)が調査されます。
gnnトレーニングアルゴリズムの設計と解析のための包括的なフレームワークを開発した。
提案アルゴリズムは,GNNの根底にある真のパラメータに対する線形収束率を保証する。
論文 参考訳(メタデータ) (2020-12-07T02:54:48Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。