論文の概要: Geometric All-Way Boolean Tensor Decomposition
- arxiv url: http://arxiv.org/abs/2007.15821v2
- Date: Mon, 26 Oct 2020 19:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:12:00.332912
- Title: Geometric All-Way Boolean Tensor Decomposition
- Title(参考訳): 幾何学的全方向ブールテンソル分解
- Authors: Changlin Wan, Wennan Chang, Tong Zhao, Sha Cao, Chi Zhang
- Abstract要約: 幾何的視点からテンソルのランク-1 基底を逐次同定する GETF を提案する。
合成データと実世界のデータの両方の実験により、GETFは復元精度、潜伏構造の抽出性能を大幅に向上し、他の最先端手法よりも桁違いに高速であることが示された。
- 参考スコア(独自算出の注目度): 14.065968221500246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Boolean tensor has been broadly utilized in representing high dimensional
logical data collected on spatial, temporal and/or other relational domains.
Boolean Tensor Decomposition (BTD) factorizes a binary tensor into the Boolean
sum of multiple rank-1 tensors, which is an NP-hard problem. Existing BTD
methods have been limited by their high computational cost, in applications to
large scale or higher order tensors. In this work, we presented a
computationally efficient BTD algorithm, namely \textit{Geometric Expansion for
all-order Tensor Factorization} (GETF), that sequentially identifies the rank-1
basis components for a tensor from a geometric perspective. We conducted
rigorous theoretical analysis on the validity as well as algorithemic
efficiency of GETF in decomposing all-order tensor. Experiments on both
synthetic and real-world data demonstrated that GETF has significantly improved
performance in reconstruction accuracy, extraction of latent structures and it
is an order of magnitude faster than other state-of-the-art methods.
- Abstract(参考訳): ブールテンソルは、空間的、時間的および/または他の関係領域で収集された高次元論理データを表現するのに広く使われている。
ブールテンソル分解(BTD)は、二元テンソルを複数の階数-1テンソルのブール和に分解する。
既存のBTD法は、大規模または高次テンソルへの応用において、高い計算コストで制限されている。
本研究では,計算効率の高いbtdアルゴリズム,すなわち全階テンソル因子分解のための\textit{geometric expansion for all-order tensor factorization} (getf)を提案した。
我々は,全次テンソルの分解におけるGETFの有効性とアルゴリテミック効率の厳密な理論的解析を行った。
合成データと実世界のデータの両方の実験により、GETFは復元精度、潜伏構造の抽出性能を大幅に向上し、他の最先端手法よりも桁違いに高速であることが示された。
関連論文リスト
- Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Latent Matrices for Tensor Network Decomposition and to Tensor
Completion [8.301418317685906]
テンソルを小さく分解し,アルゴリズムの計算を高速化する新しい高階テンソル分解モデルを提案する。
LMTN-PAM, LMTN-SVD, LMTN-ARの3つの最適化アルゴリズムを開発し, テンソル補完タスクに適用した。
実験の結果, LMTN-SVDアルゴリズムはFCTN-PAMアルゴリズムの3~6倍高速であり, 1.8ポイントの精度低下しか得られなかった。
論文 参考訳(メタデータ) (2022-10-07T08:19:50Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Tensor Full Feature Measure and Its Nonconvex Relaxation Applications to
Tensor Recovery [1.8899300124593645]
完全特徴量(FFM)と呼ばれる新しいテンソル間隔尺度を提案する。
これは各次元の特徴次元を同時に記述することができ、タッカーランクとテンソルチューブランクを結びつけることができる。
FFMに基づく2つの効率的なモデルを提案し、提案モデルを解決するために2つの代替乗算器法(ADMM)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-25T01:44:34Z) - Provable Tensor-Train Format Tensor Completion by Riemannian
Optimization [22.166436026482984]
TT形式テンソル完備化のためのRGradアルゴリズムの収束に関する最初の理論的保証を提供する。
また, 逐次2次モーメント法(Sequence second-order moment method)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-27T08:13:58Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。