論文の概要: Automated Tensor-Relational Decomposition for Large-Scale Sparse Tensor Computation
- arxiv url: http://arxiv.org/abs/2603.08957v1
- Date: Mon, 09 Mar 2026 21:43:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.842315
- Title: Automated Tensor-Relational Decomposition for Large-Scale Sparse Tensor Computation
- Title(参考訳): 大規模スパーステンソル計算のための自動テンソル関係分解法
- Authors: Yuxin Tang, Zhiyuan Xin, Zhimin Ding, Xinyu Yao, Daniel Bourgeois, Tirthak Patel, Chris Jermaine,
- Abstract要約: Instein Summation Notation のテンソル-リレーショナル版である上ケース-下ケースの textttEinSum を導入する。
本研究では,Einstein Notation の計算を上ケースローケースの textttEinSum に自動的に書き直し,効率的な数値カーネルを用いて計算集約的なコンポーネントを実行する方法について検討する。
- 参考スコア(独自算出の注目度): 10.683298568098076
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A \emph{tensor-relational} computation is a relational computation where individual tuples carry vectors, matrices, or higher-dimensional arrays. An advantage of tensor-relational computation is that the overall computation can be executed on top of a relational system, inheriting the system's ability to automatically handle very large inputs with high levels of sparsity while high-performance kernels (such as optimized matrix-matrix multiplication codes) can be used to perform most of the underlying mathematical operations. In this paper, we introduce upper-case-lower-case \texttt{EinSum}, which is a tensor-relational version of the classical Einstein Summation Notation. We study how to automatically rewrite a computation in Einstein Notation into upper-case-lower-case \texttt{EinSum} so that computationally intensive components are executed using efficient numerical kernels, while sparsity is managed relationally.
- Abstract(参考訳): emph{tensor-relational} 計算は、個々のタプルがベクトル、行列、あるいは高次元配列を運ぶ関係計算である。
テンソル-リレーショナル計算の利点は、全体的な計算をリレーショナルシステム上で実行でき、高性能カーネル(最適化行列行列行列乗算符号など)が基礎となる数学的操作の多くを実行するのに対して、非常に大きな入力を高レベルに自動的に処理できる能力を引き継ぐことである。
本稿では,古典的アインシュタイン要約記法のテンソル関係版である上ケース-下ケース \texttt{EinSum} を紹介する。
本研究では,Einstein Notation の計算を上ケース・下ケースの \texttt{EinSum} に自動的に書き直す方法について検討し,計算集約的なコンポーネントを効率的な数値カーネルを用いて実行し,疎性は関係的に管理する。
関連論文リスト
- Efficient Tensor Completion Algorithms for Highly Oscillatory Operators [7.563400478703737]
本稿では,低複雑性テンソル補完アルゴリズムとその効率的な実装について述べる。
基礎となるテンソル分解は、入力行列とその蝶分解を位数$O(log n)$tensorに置き換えることに基づいている。
論文 参考訳(メタデータ) (2025-10-20T16:45:59Z) - Scaling Probabilistic Circuits via Monarch Matrices [109.65822339230853]
確率回路(PC)は確率分布の抽出可能な表現である。
そこで本研究では,PCの和ブロックに対する新しいスパースパラメータと構造化パラメータ化を提案する。
論文 参考訳(メタデータ) (2025-06-14T07:39:15Z) - Determinant Estimation under Memory Constraints and Neural Scaling Laws [48.68885778257016]
メモリ制約設定における大規模対数決定式計算のための新しい階層的アルゴリズムを導出する。
擬似決定詞の比率が法則関係を満たすことを示し、対応するスケーリング法則を導出できるようにする。
これにより、完全なデータセットのごく一部からNTKログ行列式を正確に推定できる。
論文 参考訳(メタデータ) (2025-03-06T13:32:13Z) - Fast Causal Discovery by Approximate Kernel-based Generalized Score Functions with Linear Computational Complexity [29.444911198185206]
我々は,$mathcalO(n)$時間と空間複素量を持つカーネルベース一般化スコア関数を提案する。
提案手法は計算コストを大幅に削減するだけでなく,特に大規模データセットの精度も向上する。
論文 参考訳(メタデータ) (2024-12-23T16:51:45Z) - Computing with Residue Numbers in High-Dimensional Representation [7.736925756277564]
本稿では,Residue Hyperdimensional Computingを紹介した。Residue Hyperdimensional Computingは乱高次元ベクトル上で定義される代数学と残余数系を統一する計算フレームワークである。
代数演算をベクトル要素上の成分的に並列化可能な演算で行うことが可能な方法で、剰余数を高次元ベクトルとして表現する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T18:19:45Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Learning distributed representations with efficient SoftMax normalization [3.8673630752805437]
有界ノルムを持つ埋め込みベクトルに対して$rm SoftMax(XYT)$の正規化定数を計算する線形時間近似を提案する。
本稿では,提案手法が競合手法よりも高い精度あるいは同等の精度を達成できるような事前学習した埋め込みデータセットについて述べる。
提案アルゴリズムは解釈可能で,任意の埋め込み問題に容易に適応できる。
論文 参考訳(メタデータ) (2023-03-30T15:48:26Z) - Automatic differentiation for Riemannian optimization on low-rank matrix
and tensor-train manifolds [71.94111815357064]
科学計算および機械学習アプリケーションでは、行列およびより一般的な多次元配列(テンソル)は、しばしば低ランク分解の助けを借りて近似することができる。
低ランク近似を見つけるための一般的なツールの1つはリーマン最適化を使うことである。
論文 参考訳(メタデータ) (2021-03-27T19:56:00Z) - Tensor Relational Algebra for Machine Learning System Design [7.764107702934616]
本稿では、リレーショナルテンソル代数(TRA)と呼ばれる別の実装抽象化を提案する。
TRA は、リレーショナル代数に基づく集合基底代数である。
我々の実証研究は、最適化されたTRAベースのバックエンドが、分散クラスタでMLを実行する際の選択肢を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-09-01T15:51:24Z) - Coded Distributed Computing with Partial Recovery [56.08535873173518]
部分回復型符号化計算(CCPR)と呼ばれる新しい符号化行列ベクトル乗法を導入する。
CCPRは計算時間と復号化の複雑さを減らし、精度と計算速度のトレードオフを可能にする。
次に、この手法をより一般的な計算タスクの分散実装に拡張し、部分的回復を伴う符号化通信方式を提案する。
論文 参考訳(メタデータ) (2020-07-04T21:34:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。