論文の概要: JULIA: Joint Multi-linear and Nonlinear Identification for Tensor
Completion
- arxiv url: http://arxiv.org/abs/2202.00071v1
- Date: Mon, 31 Jan 2022 20:18:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 14:51:11.119060
- Title: JULIA: Joint Multi-linear and Nonlinear Identification for Tensor
Completion
- Title(参考訳): JULIA: Tensor Completion の多重線形・非線形同定
- Authors: Cheng Qian, Kejun Huang, Lucas Glass, Rakshith S. Srinivasa, and
Jimeng Sun
- Abstract要約: 本稿では,大規模テンソル完備化のためのMUlti-linearおよびNon Linear IdentificAtionフレームワークを提案する。
6つの実大規模テンソルの実験は、JULIAが既存のテンソル完備化アルゴリズムよりも優れていることを示した。
- 参考スコア(独自算出の注目度): 46.27248186328502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor completion aims at imputing missing entries from a partially observed
tensor. Existing tensor completion methods often assume either multi-linear or
nonlinear relationships between latent components.
However, real-world tensors have much more complex patterns where both
multi-linear and nonlinear relationships may coexist. In such cases, the
existing methods are insufficient to describe the data structure. This paper
proposes a Joint mUlti-linear and nonLinear IdentificAtion (JULIA) framework
for large-scale tensor completion. JULIA unifies the multi-linear and nonlinear
tensor completion models with several advantages over the existing methods: 1)
Flexible model selection, i.e., it fits a tensor by assigning its values as a
combination of multi-linear and nonlinear components; 2) Compatible with
existing nonlinear tensor completion methods; 3) Efficient training based on a
well-designed alternating optimization approach. Experiments on six real
large-scale tensors demonstrate that JULIA outperforms many existing tensor
completion algorithms. Furthermore, JULIA can improve the performance of a
class of nonlinear tensor completion methods. The results show that in some
large-scale tensor completion scenarios, baseline methods with JULIA are able
to obtain up to 55% lower root mean-squared-error and save 67% computational
complexity.
- Abstract(参考訳): テンソル補完は、部分的に観測されたテンソルから欠落したエントリを暗示することを目的としている。
既存のテンソル補完法は、しばしば潜在成分間の多重線型または非線形関係を仮定する。
しかし、実世界のテンソルはより複雑なパターンを持ち、多重線型関係と非線形関係は共存する。
このような場合、既存の手法ではデータ構造を記述するには不十分である。
本稿では,大規模テンソル完成のためのJULIA(Joint mUlti-linear and nonLinear IdentificAtion)フレームワークを提案する。
JULIAは、既存の方法に対していくつかの利点がある多重線型および非線形テンソル完備化モデルを統合する。
1) フレキシブルモデルの選択,すなわち,マルチリニア成分と非線形成分の組み合わせとしてその値を割り当てることでテンソルに適合する。
2) 既存の非線形テンソル補完法と適合する。
3) よく設計された交互最適化アプローチに基づく効率的な訓練。
6つの実大規模テンソルの実験は、JULIAが既存のテンソル完備化アルゴリズムよりも優れていることを示した。
さらに、JULIAは非線形テンソル補完法のクラスの性能を向上させることができる。
その結果, 大規模テンソル完成シナリオでは, JULIA を用いたベースライン法はルート平均二乗誤差を最大55%低減し, 計算複雑性を67%削減できることがわかった。
関連論文リスト
- Scalable tensor methods for nonuniform hypergraphs [0.18434042562191813]
最近提案された隣接テンソルは、非一様ハイパーグラフに適用できるが、実際は形成・解析するのに著しくコストがかかる。
テンソル時間同値ベクトル(TTSV)アルゴリズムを開発し,複雑性を$O(nr)$から$r$の低次に改善する。
テンソルベースハイパーグラフ集中度とクラスタリングアルゴリズムを開発することにより,我々のアプローチの柔軟性と実用性を実証する。
論文 参考訳(メタデータ) (2023-06-30T17:41:58Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Slimmable Networks for Contrastive Self-supervised Learning [69.9454691873866]
自己教師付き学習は、大規模なモデルを事前訓練する上で大きな進歩を遂げるが、小さなモデルでは苦労する。
追加の教師を必要とせず、訓練済みの小型モデルを得るための1段階のソリューションも導入する。
スリム化可能なネットワークは、完全なネットワークと、様々なネットワークを得るために一度にトレーニングできるいくつかの重み共有サブネットワークから構成される。
論文 参考訳(メタデータ) (2022-09-30T15:15:05Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Tensor Full Feature Measure and Its Nonconvex Relaxation Applications to
Tensor Recovery [1.8899300124593645]
完全特徴量(FFM)と呼ばれる新しいテンソル間隔尺度を提案する。
これは各次元の特徴次元を同時に記述することができ、タッカーランクとテンソルチューブランクを結びつけることができる。
FFMに基づく2つの効率的なモデルを提案し、提案モデルを解決するために2つの代替乗算器法(ADMM)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-25T01:44:34Z) - Efficient Tensor Completion via Element-wise Weighted Low-rank Tensor
Train with Overlapping Ket Augmentation [18.438177637687357]
本稿では,要素重み付け手法による新しいテンソル完備化手法を提案する。
具体的には,隣接ブロックからのエッジ要素の回復品質について検討する。
実験結果から,提案アルゴリズムのTWMac-TTは,他の競合するテンソル補完法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-13T06:50:37Z) - MLCTR: A Fast Scalable Coupled Tensor Completion Based on Multi-Layer
Non-Linear Matrix Factorization [3.6978630614152013]
本稿では, テンソル完備問題の組込み学習に焦点をあて, 因子化・完備化のための新しい多層ニューラルネットワークアーキテクチャを提案する。
ネットワークアーキテクチャには、オーバーフィッティングを最小限に抑えるためにブロックを構築する一連の低ランク行列因数分解、非直線性のために各層でインターリーブされた転送関数、ネットワークの深さを減少させるバイパス接続など、多くの利点がある。
提案アルゴリズムはEPSデータに欠落した値を出力するのに非常に効率的である。
論文 参考訳(メタデータ) (2021-09-04T03:08:34Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - A Solution for Large Scale Nonlinear Regression with High Rank and
Degree at Constant Memory Complexity via Latent Tensor Reconstruction [0.0]
本稿では,高非線形多変量関数を例から学習する新しい手法を提案する。
この手法は、連続函数をバイスで近似できるという性質を生かし、テンソルで表現できる。
モデルを学習するために,線形時間で実装可能な効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-04T14:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。