論文の概要: A Sparse Tensor Generator with Efficient Feature Extraction
- arxiv url: http://arxiv.org/abs/2405.04944v2
- Date: Mon, 10 Mar 2025 05:06:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:39:21.697585
- Title: A Sparse Tensor Generator with Efficient Feature Extraction
- Title(参考訳): 効率的な特徴抽出機能を有するスパーステンソル発電機
- Authors: Tugba Torun, Ameer Taweel, Didem Unat,
- Abstract要約: スパーステンソル研究における大きな障害は、大規模なスパーステンソルデータセットの欠如である。
我々は,実スパーステンソルの鍵特性を再現するスマートスパーステンソルジェネレータを開発した。
また,スパーステンソル特徴の包括的集合を抽出する効率的な方法を提案する。
- 参考スコア(独自算出の注目度): 1.433758865948252
- License:
- Abstract: Sparse tensor operations are increasingly important in diverse applications such as social networks, deep learning, diagnosis, crime, and review analysis. However, a major obstacle in sparse tensor research is the lack of large-scale sparse tensor datasets. Another challenge lies in analyzing sparse tensor features, which are essential not only for understanding the nonzero pattern but also for selecting the most suitable storage format, decomposition algorithm, and reordering methods. However, due to the large size of real-world tensors, even extracting these features can be computationally expensive without careful optimization. To address these limitations, we have developed a smart sparse tensor generator that replicates key characteristics of real sparse tensors. Additionally, we propose efficient methods for extracting a comprehensive set of sparse tensor features. The effectiveness of our generator is validated through the quality of extracted features and the performance of decomposition on the generated tensors. Both the sparse tensor feature extractor and the tensor generator are open source with all the artifacts available at https://github.com/sparcityeu/FeaTensor and https://github.com/sparcityeu/GenTensor, respectively.
- Abstract(参考訳): スパーステンソル操作は、ソーシャルネットワーク、ディープラーニング、診断、犯罪、レビュー分析などの多様なアプリケーションにおいてますます重要になっている。
しかし、スパーステンソル研究の大きな障害は、大規模なスパーステンソルデータセットの欠如である。
もう一つの課題はスパーステンソルの特徴を解析することであり、これは非ゼロパターンの理解だけでなく、最も適した記憶形式、分解アルゴリズム、順序付け方法の選択にも不可欠である。
しかし、実世界のテンソルが大きすぎるため、これらの特徴を抽出しても慎重に最適化することなく計算コストがかかる。
これらの制約に対処するため,実スパルステンソルの鍵特性を再現するスマートスパーステンソルジェネレータを開発した。
さらに,スパーステンソルの特徴を包括的に抽出する効率的な手法を提案する。
提案手法の有効性は, 抽出した特徴量の品質と, 生成テンソルの分解性能から検証した。
スパーステンソル機能抽出器とテンソルジェネレータはいずれもオープンソースで、すべてのアーティファクトはhttps://github.com/sparcityeu/FeaTensorとhttps://github.com/sparcityeu/GenTensorで利用可能である。
関連論文リスト
- Guaranteed Nonconvex Low-Rank Tensor Estimation via Scaled Gradient Descent [4.123899820318987]
本稿では,テンソル因子を直接推定するスケールド勾配降下法(ScaledGD)を提案する。
理論上、ScaledGD は基底真理低ランクテンソルの条件数に依存しない定数速度で線形収束を達成する。
虚弱条件下での低ランクテンソル推定の収束速度を加速する上でのScaledGDの有効性を示す数値的な例を提供する。
論文 参考訳(メタデータ) (2025-01-03T08:26:01Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Decomposable Sparse Tensor on Tensor Regression [1.370633147306388]
テンソル回帰のスパースローランクテンソルを考えると、予測子 $mathcalX$ とレスポンス $mathcalY$ はどちらも高次元テンソルである。
本稿では,契約部と生成部から構成されるステージワイド探索に基づく高速解を提案する。
論文 参考訳(メタデータ) (2022-12-09T18:16:41Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Sample Efficient Learning of Factored Embeddings of Tensor Fields [3.0072182643196217]
我々は非同型表現を用いた近似フルランクテンソルスケッチとコンパクトテンソルスケッチを学習する。
元のテンソルフィールド上の全ての情報クエリと後処理は、より効率的に実現できるようになった。
論文 参考訳(メタデータ) (2022-09-01T11:32:00Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Distributed Non-Negative Tensor Train Decomposition [3.2264685979617655]
高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
論文 参考訳(メタデータ) (2020-08-04T05:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。