論文の概要: NeuMatC: A General Neural Framework for Fast Parametric Matrix Operation
- arxiv url: http://arxiv.org/abs/2511.22934v1
- Date: Fri, 28 Nov 2025 07:21:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.798129
- Title: NeuMatC: A General Neural Framework for Fast Parametric Matrix Operation
- Title(参考訳): NeuMatC: 高速パラメトリックマトリックス操作のための汎用ニューラルネットワークフレームワーク
- Authors: Chuan Wang, Xi-le Zhao, Zhilong Han, Liang Li, Deyu Meng, Michael K. Ng,
- Abstract要約: 我々は、一般的なパラメトリック行列演算タスクをエレガントに扱うtextbftextitNeural Matrix Computation Framework (NeuMatC)を提案する。
NeuMatCは、パラメータから対応する行列演算結果への低ランクかつ連続的なマッピングを教師なしで学習する。
合成と実世界の両方のデータセットの実験結果は、NeuMatCの有望な性能を示している。
- 参考スコア(独自算出の注目度): 75.91285900600549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Matrix operations (e.g., inversion and singular value decomposition (SVD)) are fundamental in science and engineering. In many emerging real-world applications (such as wireless communication and signal processing), these operations must be performed repeatedly over matrices with parameters varying continuously. However, conventional methods tackle each matrix operation independently, underexploring the inherent low-rankness and continuity along the parameter dimension, resulting in significantly redundant computation. To address this challenge, we propose \textbf{\textit{Neural Matrix Computation Framework} (NeuMatC)}, which elegantly tackles general parametric matrix operation tasks by leveraging the underlying low-rankness and continuity along the parameter dimension. Specifically, NeuMatC unsupervisedly learns a low-rank and continuous mapping from parameters to their corresponding matrix operation results. Once trained, NeuMatC enables efficient computations at arbitrary parameters using only a few basic operations (e.g., matrix multiplications and nonlinear activations), significantly reducing redundant computations. Experimental results on both synthetic and real-world datasets demonstrate the promising performance of NeuMatC, exemplified by over $3\times$ speedup in parametric inversion and $10\times$ speedup in parametric SVD compared to the widely used NumPy baseline in wireless communication, while maintaining acceptable accuracy.
- Abstract(参考訳): マトリックス演算(例えば、逆転と特異値分解(SVD))は、科学と工学の基本である。
多くの新興現実世界のアプリケーション(例えば無線通信や信号処理)では、これらの操作はパラメータが連続的に変化する行列上で繰り返し実行されなければならない。
しかし、従来の手法では、パラメータ次元に沿って固有の低ランク性や連続性を探索し、行列演算を独立に行うため、計算は大幅に冗長になる。
この課題に対処するために,パラメータの次元に沿って下位の低ランク性と連続性を活用することで,一般的なパラメトリック行列演算タスクをエレガントに取り組んだ \textbf{\textit{Neural Matrix Computation Framework} (NeuMatC)} を提案する。
具体的には、NeuMatCはパラメータから対応する行列演算結果への低ランクかつ連続的なマッピングを教師なしで学習する。
トレーニングが完了すると、NeuMatCはいくつかの基本的な演算(行列乗算や非線形アクティベーションなど)のみを使用して任意のパラメータでの効率的な計算を可能にし、冗長な計算を大幅に削減する。
NeuMatCの有望な性能を示し、パラメトリックインバージョンで3ドル以上、パラメトリックSVDで10ドル以上、無線通信で広く使われているNumPyベースラインで広く使われているNumPyと比較して10ドル以上のスピードアップで実証された。
関連論文リスト
- Scaling Probabilistic Circuits via Monarch Matrices [109.65822339230853]
確率回路(PC)は確率分布の抽出可能な表現である。
そこで本研究では,PCの和ブロックに対する新しいスパースパラメータと構造化パラメータ化を提案する。
論文 参考訳(メタデータ) (2025-06-14T07:39:15Z) - Low-Bit Integerization of Vision Transformers using Operand Reordering for Efficient Hardware [0.7136205674624813]
計算グラフを解析し,演算再順序付けに基づく整数化プロセスを提案する。
これにより、量子化入力を直接処理することで、整数化行列乗法と線形加群が実現される。
実験結果から, 線形層と行列乗算のPE当たりの消費電力は, 低ビット推論により減少することがわかった。
論文 参考訳(メタデータ) (2025-04-11T16:09:54Z) - Generalized Tensor-based Parameter-Efficient Fine-Tuning via Lie Group Transformations [50.010924231754856]
さまざまな下流タスクに事前訓練された基礎モデルを適用することは、人工知能のコアプラクティスである。
これを解決するために、LoRAのようなパラメータ効率細調整(PEFT)手法が登場し、研究の焦点となっている。
本稿では,行列型PEFT法を高次元パラメータ空間に拡張する一般化法を提案する。
論文 参考訳(メタデータ) (2025-04-01T14:36:45Z) - Optimized Sparse Matrix Operations for Reverse Mode Automatic
Differentiation [3.72826300260966]
本稿では,PyTorch のための CSR ベースのスパース行列ラッパーの実装について述べる。
また,結果のスパースカーネルを最適化に応用し,実装や性能測定の容易さを高密度カーネルと比較した。
論文 参考訳(メタデータ) (2022-12-10T00:46:51Z) - Fast Differentiable Matrix Square Root and Inverse Square Root [65.67315418971688]
微分可能な行列平方根と逆平方根を計算するためのより効率的な2つの変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad'e Approximants (MPA) を使用する方法がある。
一連の数値実験により、両方の手法がSVDやNSの繰り返しと比較してかなりスピードアップすることが示された。
論文 参考訳(メタデータ) (2022-01-29T10:00:35Z) - Fast Differentiable Matrix Square Root [65.67315418971688]
微分可能な行列平方根を計算するために、より効率的な2つの変種を提案する。
前方伝播には, Matrix Taylor Polynomial (MTP) を用いる方法がある。
もう1つの方法は Matrix Pad'e Approximants (MPA) を使うことである。
論文 参考訳(メタデータ) (2022-01-21T12:18:06Z) - Fast and Accurate Pseudoinverse with Sparse Matrix Reordering and
Incremental Approach [4.710916891482697]
擬逆は行列逆の一般化であり、機械学習で広く利用されている。
FastPIはスパース行列に対する新たなインクリメンタル特異値分解法(SVD)である。
我々は,FastPIが精度を損なうことなく,他の近似手法よりも高速に擬似逆計算を行うことを示す。
論文 参考訳(メタデータ) (2020-11-09T07:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。