論文の概要: $XX^{t}$ Can Be Faster
- arxiv url: http://arxiv.org/abs/2505.09814v1
- Date: Wed, 14 May 2025 21:31:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.115618
- Title: $XX^{t}$ Can Be Faster
- Title(参考訳): $XX^{t}$はもっと速くできる
- Authors: Dmitry Rybin, Yushun Zhang, Zhi-Quan Luo,
- Abstract要約: 行列の積を変換$XXt$で計算するアルゴリズムを提案する。
RXTXは、State-of-the-Artよりも5%$の乗算と加算を使い、行列$X$の小さなサイズであっても加速を達成する。
- 参考スコア(独自算出の注目度): 18.4199325543047
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a new algorithm RXTX that computes product of matrix by its transpose $XX^{t}$. RXTX uses $5\%$ less multiplications and additions than State-of-the-Art and achieves accelerations even for small sizes of matrix $X$. The algorithm was discovered by combining Machine Learning-based search methods with Combinatorial Optimization.
- Abstract(参考訳): 行列の積をその変換 $XX^{t}$ で計算するアルゴリズム RXTX を提案する。
RXTX は State-of-the-Art よりも 5\%$ の乗算と加算を使い、行列 $X$ の小さなサイズであっても加速を達成する。
このアルゴリズムは、機械学習に基づく探索手法とコンビニアル最適化を組み合わせることによって発見された。
関連論文リスト
- Fast convolution algorithm for state space models [0.0]
線形時間不変系(LTI)の行列伝達関数を時間領域に適用するための無条件安定アルゴリズムを提案する。
そのような転送関数を$L$状態に応用するには、行列ベクトルの乗算を2L$以上必要としない。
論文 参考訳(メタデータ) (2024-11-22T05:30:03Z) - Matrix Compression via Randomized Low Rank and Low Precision
Factorization [47.902465710511485]
現代の行列は数十億の要素を巻き込み、そのストレージと処理は計算資源とメモリ使用量の観点から非常に要求される。
この構造を利用して任意の行列 $mathbfA$ as $mathbfLmathbfR$ の低階分解を求めるアルゴリズムを提案する。
LlaMa-7$bの層を圧縮し,画像圧縮におけるアルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2023-10-17T06:56:57Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Multiplying Matrices Without Multiplying [0.0]
行列の乗算は機械学習における最も基本的で計算集約的な操作の1つである。
本稿では,既存の手法を大幅に上回る学習ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-21T05:08:54Z) - Hutch++: Optimal Stochastic Trace Estimation [75.45968495410048]
我々は、任意の正半定値(PSD)$A$に対して、$(1 pm epsilon)$を$tr(A)$に近似する新しいランダム化アルゴリズムであるHutch++を導入する。
実験ではハッチンソン法を著しく上回る結果を得た。
論文 参考訳(メタデータ) (2020-10-19T16:45:37Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - What if Neural Networks had SVDs? [66.91160214071088]
様々なニューラルネットワークでは、行列反転のような時間を要する行列演算を採用している。
本稿では,行列演算を高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-29T12:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。