論文の概要: Multi-Tensor Network Representation for High-Order Tensor Completion
- arxiv url: http://arxiv.org/abs/2109.04022v1
- Date: Thu, 9 Sep 2021 03:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:15:55.699566
- Title: Multi-Tensor Network Representation for High-Order Tensor Completion
- Title(参考訳): 高次テンソル完了のためのマルチテンソルネットワーク表現
- Authors: Chang Nie, Huan Wang, Zhihui Lai
- Abstract要約: この研究は、部分的に観察されたサンプリングから高次元データ(テンソルを参照)の完備化の問題を研究する。
テンソルは複数の低ランク成分の重ね合わせであると考える。
本稿では,基本テンソル分解フレームワークであるMulti-Tensor Network decomposition (MTNR)を提案する。
- 参考スコア(独自算出の注目度): 25.759851542474447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work studies the problem of high-dimensional data (referred to tensors)
completion from partially observed samplings. We consider that a tensor is a
superposition of multiple low-rank components. In particular, each component
can be represented as multilinear connections over several latent factors and
naturally mapped to a specific tensor network (TN) topology. In this paper, we
propose a fundamental tensor decomposition (TD) framework: Multi-Tensor Network
Representation (MTNR), which can be regarded as a linear combination of a range
of TD models, e.g., CANDECOMP/PARAFAC (CP) decomposition, Tensor Train (TT),
and Tensor Ring (TR). Specifically, MTNR represents a high-order tensor as the
addition of multiple TN models, and the topology of each TN is automatically
generated instead of manually pre-designed. For the optimization phase, an
adaptive topology learning (ATL) algorithm is presented to obtain latent
factors of each TN based on a rank incremental strategy and a projection error
measurement strategy. In addition, we theoretically establish the fundamental
multilinear operations for the tensors with TN representation, and reveal the
structural transformation of MTNR to a single TN. Finally, MTNR is applied to a
typical task, tensor completion, and two effective algorithms are proposed for
the exact recovery of incomplete data based on the Alternating Least Squares
(ALS) scheme and Alternating Direction Method of Multiplier (ADMM) framework.
Extensive numerical experiments on synthetic data and real-world datasets
demonstrate the effectiveness of MTNR compared with the start-of-the-art
methods.
- Abstract(参考訳): この研究は、部分的に観察されたサンプリングから高次元データ(テンソルを参照)の完備化の問題を研究する。
テンソルは複数の低ランク成分の重ね合わせであると考える。
特に、各成分はいくつかの潜在因子上の多重線型接続として表現され、自然に特定のテンソルネットワーク(tn)トポロジーにマッピングされる。
本稿では,マルチテンソルネットワーク表現 (mtnr) を,candecomp/parafac (cp) 分解,tensor train (tt) およびtensor ring (tr) などのtdモデルの線形結合と見なすことができる基本テンソル分解 (td) フレームワークを提案する。
具体的には、MTNRは高次テンソルを複数のTNモデルの付加として表現し、各TNの位相は手動で事前設計する代わりに自動的に生成される。
最適化フェーズでは、ランクインクリメンタル戦略と投影誤差測定戦略に基づいて各tnの潜在因子を得るための適応トポロジー学習(atl)アルゴリズムを提案する。
さらに、TN表現を持つテンソルの基本的な多重線型演算を理論的に確立し、単一のTNへのMTNRの構造変換を明らかにする。
最後に、MTNRを典型的なタスク、テンソル補完に適用し、ALS(Alternating Least Squares)スキームとADMM(Alternating Direction Method of Multiplier)フレームワークに基づく不完全データの正確な回復のための2つの有効なアルゴリズムを提案する。
人工データと実世界のデータセットに関する大規模な数値実験により,MTNRの有効性が実証された。
関連論文リスト
- Tensorized LSSVMs for Multitask Regression [48.844191210894245]
マルチタスク学習(MTL)は、複数のタスク間の関連性を利用してパフォーマンスを向上させる。
低ランクテンソル解析とLast Squares Support Vectorized Least Squares Support Vectorized tLSSVM-MTLを利用する。
論文 参考訳(メタデータ) (2023-03-04T16:36:03Z) - Latent Matrices for Tensor Network Decomposition and to Tensor
Completion [8.301418317685906]
テンソルを小さく分解し,アルゴリズムの計算を高速化する新しい高階テンソル分解モデルを提案する。
LMTN-PAM, LMTN-SVD, LMTN-ARの3つの最適化アルゴリズムを開発し, テンソル補完タスクに適用した。
実験の結果, LMTN-SVDアルゴリズムはFCTN-PAMアルゴリズムの3~6倍高速であり, 1.8ポイントの精度低下しか得られなかった。
論文 参考訳(メタデータ) (2022-10-07T08:19:50Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Multi-mode Tensor Train Factorization with Spatial-spectral
Regularization for Remote Sensing Images Recovery [1.3272510644778104]
マルチモードTT因子化と空間スペクトルの滑らか度正規化による新しい低MTTランクテンソル完備化モデルを提案する。
MTTD3R法は,視覚的,定量的に比較した手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-05T07:36:08Z) - Tensor Full Feature Measure and Its Nonconvex Relaxation Applications to
Tensor Recovery [1.8899300124593645]
完全特徴量(FFM)と呼ばれる新しいテンソル間隔尺度を提案する。
これは各次元の特徴次元を同時に記述することができ、タッカーランクとテンソルチューブランクを結びつけることができる。
FFMに基づく2つの効率的なモデルを提案し、提案モデルを解決するために2つの代替乗算器法(ADMM)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-25T01:44:34Z) - Residual Tensor Train: a Flexible and Efficient Approach for Learning
Multiple Multilinear Correlations [4.754987078078158]
本稿では, TTと残留構造を融合したResidual Train(Residual Train)を提案する。
特に,ニューラルネットワークとVolterra系列の完全連結層がResTTの特別な場合として利用できることを示す。
このような規則はTTよりもずっと緩やかであることが証明され、つまりResTTは消滅し爆発する勾配問題に容易に対処できる。
論文 参考訳(メタデータ) (2021-08-19T12:47:16Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Adaptive Learning of Tensor Network Structures [6.407946291544721]
我々はTN形式を利用して汎用的で効率的な適応アルゴリズムを開発し、データからTNの構造とパラメータを学習する。
本アルゴリズムは,任意の微分対象関数を効果的に最適化する少数のパラメータでTN構造を適応的に同定することができる。
論文 参考訳(メタデータ) (2020-08-12T16:41:56Z) - Multi-View Spectral Clustering Tailored Tensor Low-Rank Representation [105.33409035876691]
本稿では,テンソル低ランクモデルに基づくマルチビュースペクトルクラスタリング(MVSC)の問題について検討する。
MVSCに適合する新しい構造テンソル低ランクノルムを設計する。
提案手法は最先端の手法よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-04-30T11:52:12Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。