論文の概要: DPar2: Fast and Scalable PARAFAC2 Decomposition for Irregular Dense
Tensors
- arxiv url: http://arxiv.org/abs/2203.12798v1
- Date: Thu, 24 Mar 2022 01:43:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 15:26:08.497979
- Title: DPar2: Fast and Scalable PARAFAC2 Decomposition for Irregular Dense
Tensors
- Title(参考訳): DPar2:不規則密度テンソルの高速かつスケーラブルなPARAFAC2分解
- Authors: Jun-Gi Jang and U Kang
- Abstract要約: 本研究では不規則な高密度テンソルに対する高速かつスケーラブルなPARAFAC2分解法DPar2を提案する。
大規模な実験により、DPar2は実世界の不規則なテンソルの競合よりも最大6.0倍速いことが示されている。
- 参考スコア(独自算出の注目度): 29.072651980087713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an irregular dense tensor, how can we efficiently analyze it? An
irregular tensor is a collection of matrices whose columns have the same size
and rows have different sizes from each other. PARAFAC2 decomposition is a
fundamental tool to deal with an irregular tensor in applications including
phenotype discovery and trend analysis. Although several PARAFAC2 decomposition
methods exist, their efficiency is limited for irregular dense tensors due to
the expensive computations involved with the tensor. In this paper, we propose
DPar2, a fast and scalable PARAFAC2 decomposition method for irregular dense
tensors. DPar2 achieves high efficiency by effectively compressing each slice
matrix of a given irregular tensor, careful reordering of computations with the
compression results, and exploiting the irregularity of the tensor. Extensive
experiments show that DPar2 is up to 6.0x faster than competitors on real-world
irregular tensors while achieving comparable accuracy. In addition, DPar2 is
scalable with respect to the tensor size and target rank.
- Abstract(参考訳): 不規則な高密度テンソルを考えると、どのように効率的に解析できるのか?
不規則なテンソルは、列が同じ大きさで行が互いに異なる大きさの行列の集合である。
PARAFAC2分解は表現型発見や傾向解析などの応用において不規則なテンソルを扱うための基本的なツールである。
複数のparafac2分解法が存在するが、その効率はテンソルに関連する高価な計算のために不規則な密度テンソルに制限されている。
本稿では不規則な高密度テンソルに対する高速かつスケーラブルなPARAFAC2分解法DPar2を提案する。
DPar2は、与えられた不規則なテンソルの各スライス行列を効果的に圧縮し、圧縮結果で計算を慎重に並べ替え、テンソルの不規則性を利用して高効率を実現する。
大規模な実験では、DPar2は実世界の不規則なテンソルの競合よりも最大6.0倍高速であり、精度は同等である。
また、DPar2はテンソルサイズとターゲットランクに関してスケーラブルである。
関連論文リスト
- Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KV Cache Compression [87.5604418100301]
キー値(KV)キャッシングは,大規模言語モデルの推論を高速化する重要な手法である。
既存の手法はしばしば精度を損なうか、キャリブレーションのために余分なデータを必要とする。
テンソル分解法に基づく新しいデータフリー低ビット量子化手法である textbfDecoQuant を導入する。
論文 参考訳(メタデータ) (2024-05-21T08:35:10Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Fast and Accurate Dual-Way Streaming PARAFAC2 for Irregular Tensors --
Algorithm and Application [25.241802754640958]
そこで我々はDashを提案する。Dashは、双方向ストリーミング環境で動作する、効率的かつ正確なPARAFAC2分解法である。
Dashは、新たに到着したデータに対する既存のPARAFAC2分解手法よりも14.0倍高速である。
また、サブプライム・モルトゲージ危機やCOVID-19など、現実世界のデータセットの異常を検出するための発見も提供します。
論文 参考訳(メタデータ) (2023-05-28T05:56:47Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Monarch: Expressive Structured Matrices for Efficient and Accurate
Training [64.6871423399431]
大規模なニューラルネットワークは多くのドメインで優れているが、トレーニングや微調整は高価である。
計算やメモリ要件を減らすための一般的なアプローチは、重み付け行列を構造化行列に置き換えることである。
ハードウェア効率のよい行列(Monarch)のクラスを提案する。
論文 参考訳(メタデータ) (2022-04-01T17:37:29Z) - 2D+3D facial expression recognition via embedded tensor manifold
regularization [16.98176664818354]
2D+3次元表情認識(FERETMR)のための埋め込みテンソル多様体正規化による新しい手法を提案する。
定常点の観点から一階最適条件を確立し、収束解析によるブロック座標降下(BCD)アルゴリズムを設計する。
BU-3DFEデータベースとBosphorusデータベースの数値計算結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-01-29T06:11:00Z) - Tensor Full Feature Measure and Its Nonconvex Relaxation Applications to
Tensor Recovery [1.8899300124593645]
完全特徴量(FFM)と呼ばれる新しいテンソル間隔尺度を提案する。
これは各次元の特徴次元を同時に記述することができ、タッカーランクとテンソルチューブランクを結びつけることができる。
FFMに基づく2つの効率的なモデルを提案し、提案モデルを解決するために2つの代替乗算器法(ADMM)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-25T01:44:34Z) - Efficient Tensor Completion via Element-wise Weighted Low-rank Tensor
Train with Overlapping Ket Augmentation [18.438177637687357]
本稿では,要素重み付け手法による新しいテンソル完備化手法を提案する。
具体的には,隣接ブロックからのエッジ要素の回復品質について検討する。
実験結果から,提案アルゴリズムのTWMac-TTは,他の競合するテンソル補完法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-13T06:50:37Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。