論文の概要: A Sparse Tensor Generator with Efficient Feature Extraction
- arxiv url: http://arxiv.org/abs/2405.04944v1
- Date: Wed, 8 May 2024 10:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 14:44:45.437565
- Title: A Sparse Tensor Generator with Efficient Feature Extraction
- Title(参考訳): 効率的な特徴抽出機能を有するスパーステンソル発電機
- Authors: Tugba Torun, Eren Yenigul, Ameer Taweel, Didem Unat,
- Abstract要約: スパーステンソル演算の研究の大きな障害は、広範囲のスパーステンソルデータセットの欠如である。
我々は,実スパーステンソルの実質的な特徴を模倣するスマートスパーステンソルジェネレータを開発した。
筆者らのジェネレータの有効性は,特徴の質と分解性能によって検証される。
- 参考スコア(独自算出の注目度): 1.3124513975412255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse tensor operations are gaining attention in emerging applications such as social networks, deep learning, diagnosis, crime, and review analysis. However, a major obstacle for research in sparse tensor operations is the deficiency of a broad-scale sparse tensor dataset. Another challenge in sparse tensor operations is examining the sparse tensor features, which are not only important for revealing its nonzero pattern but also have a significant impact on determining the best-suited storage format, the decomposition algorithm, and the reordering methods. However, due to the large sizes of real tensors, even extracting these features becomes costly without caution. To address these gaps in the literature, we have developed a smart sparse tensor generator that mimics the substantial features of real sparse tensors. Moreover, we propose various methods for efficiently extracting an extensive set of features for sparse tensors. The effectiveness of our generator is validated through the quality of features and the performance of decomposition in the generated tensors. Both the sparse tensor feature extractor and the tensor generator are open source with all the artifacts available at https://github.com/sparcityeu/feaTen and https://github.com/sparcityeu/genTen, respectively.
- Abstract(参考訳): ソーシャルネットワーク、ディープラーニング、診断、犯罪、レビュー分析などの新興アプリケーションにおいて、スパーステンソル操作が注目されている。
しかし、スパーステンソル演算の研究の大きな障害は、広範囲のスパーステンソルデータセットの欠如である。
スパーステンソル操作のもう1つの課題は、スパーステンソル機能を調べることである。これは、その非ゼロパターンを明らかにすることだけでなく、最も適した記憶形式、分解アルゴリズム、および順序付け方法を決定することにも大きな影響を与える。
しかし、実際のテンソルの大きさが大きいため、これらの特徴を抽出しても注意なくコストがかかる。
文献におけるこれらのギャップに対処するため,実スパーステンソルの実質的な特徴を模倣するスマートスパーステンソル生成器を開発した。
さらに,スパーステンソルの広範な特徴集合を効率的に抽出する様々な手法を提案する。
提案手法の有効性は, 生成テンソルにおける特性の質と分解性能によって検証される。
スパーステンソル機能抽出器とテンソルジェネレータはいずれもオープンソースで、すべてのアーティファクトはhttps://github.com/sparcityeu/feaTenとhttps://github.com/sparcityeu/genTenで利用可能である。
関連論文リスト
- Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Decomposable Sparse Tensor on Tensor Regression [1.370633147306388]
テンソル回帰のスパースローランクテンソルを考えると、予測子 $mathcalX$ とレスポンス $mathcalY$ はどちらも高次元テンソルである。
本稿では,契約部と生成部から構成されるステージワイド探索に基づく高速解を提案する。
論文 参考訳(メタデータ) (2022-12-09T18:16:41Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Sample Efficient Learning of Factored Embeddings of Tensor Fields [3.0072182643196217]
我々は非同型表現を用いた近似フルランクテンソルスケッチとコンパクトテンソルスケッチを学習する。
元のテンソルフィールド上の全ての情報クエリと後処理は、より効率的に実現できるようになった。
論文 参考訳(メタデータ) (2022-09-01T11:32:00Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Distributed Non-Negative Tensor Train Decomposition [3.2264685979617655]
高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
論文 参考訳(メタデータ) (2020-08-04T05:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。