論文の概要: Efficient Tensor Completion via Element-wise Weighted Low-rank Tensor
Train with Overlapping Ket Augmentation
- arxiv url: http://arxiv.org/abs/2109.05736v1
- Date: Mon, 13 Sep 2021 06:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:36:05.046077
- Title: Efficient Tensor Completion via Element-wise Weighted Low-rank Tensor
Train with Overlapping Ket Augmentation
- Title(参考訳): 重なり合うケト増強による高重み付き低位テンソル列車による高効率テンソル完了
- Authors: Yang Zhang, Yao Wang, Zhi Han, Xi'ai Chen, Yandong Tang
- Abstract要約: 本稿では,要素重み付け手法による新しいテンソル完備化手法を提案する。
具体的には,隣接ブロックからのエッジ要素の回復品質について検討する。
実験結果から,提案アルゴリズムのTWMac-TTは,他の競合するテンソル補完法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 18.438177637687357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there have been an increasing number of applications of
tensor completion based on the tensor train (TT) format because of its
efficiency and effectiveness in dealing with higher-order tensor data. However,
existing tensor completion methods using TT decomposition have two obvious
drawbacks. One is that they only consider mode weights according to the degree
of mode balance, even though some elements are recovered better in an
unbalanced mode. The other is that serious blocking artifacts appear when the
missing element rate is relatively large. To remedy such two issues, in this
work, we propose a novel tensor completion approach via the element-wise
weighted technique. Accordingly, a novel formulation for tensor completion and
an efficient optimization algorithm, called as tensor completion by parallel
weighted matrix factorization via tensor train (TWMac-TT), is proposed. In
addition, we specifically consider the recovery quality of edge elements from
adjacent blocks. Different from traditional reshaping and ket augmentation, we
utilize a new tensor augmentation technique called overlapping ket
augmentation, which can further avoid blocking artifacts. We then conduct
extensive performance evaluations on synthetic data and several real image data
sets. Our experimental results demonstrate that the proposed algorithm TWMac-TT
outperforms several other competing tensor completion methods.
- Abstract(参考訳): 近年,高次テンソルデータを扱う効率と有効性から,テンソルトレイン(TT)フォーマットに基づくテンソル補完の応用が増えている。
しかし、TT分解を用いた既存のテンソル補完法には2つの明らかな欠点がある。
一つは、モードバランスの程度に応じてのみモード重みを考慮することであるが、いくつかの要素はアンバランスモードにおいてより良く復元される。
もうひとつは、欠落している要素の割合が比較的大きいと深刻なブロッキングアーティファクトが現れます。
この2つの問題を解決するため,本研究では,要素重み付け手法による新しいテンソル補完手法を提案する。
そこで, 並列重み付き行列因子分解によるテンソル補完(twmac-tt)と呼ばれる, テンソル補完のための新しい定式化法と効率的な最適化アルゴリズムを提案する。
さらに,隣接ブロックからのエッジ要素の回復性についても検討する。
従来のリフォームやケタ増設とは違って,オーバーラップケタ増設と呼ばれる新しいテンソル増設技術を用いることで,アーティファクトのブロックをさらに回避できる。
次に、合成データと複数の実画像データセットに対して広範な性能評価を行う。
実験の結果,提案アルゴリズムは,他の競合するテンソル補完法よりも優れていることがわかった。
関連論文リスト
- Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - A Novel Tensor Factorization-Based Method with Robustness to Inaccurate
Rank Estimation [9.058215418134209]
本稿では,2つの低ランク制約を持つテンソルノルムを提案する。
結果のテンソル完成モデルが不正確なランク推定による性能劣化を効果的に回避できることが理論的に証明されている。
これに基づいて、最適化アルゴリズムの各イテレーションの総コストは$mathcalO(n3log n + kn3)$から$mathcalO(n4)$に削減される。
論文 参考訳(メタデータ) (2023-05-19T06:26:18Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - A high-order tensor completion algorithm based on Fully-Connected Tensor
Network weighted optimization [8.229028597459752]
完全連結テンソルネットワーク重み付き最適化(FCTN-WOPT)と呼ばれる新しいテンソル補完法を提案する。
このアルゴリズムは、FCTN分解から因子を初期化して完成テンソルの構成を行う。
その結果,FCTN-WOPTが高次テンソル完備化に適用された際の高性能性を示した。
論文 参考訳(メタデータ) (2022-04-04T13:46:32Z) - JULIA: Joint Multi-linear and Nonlinear Identification for Tensor
Completion [46.27248186328502]
本稿では,大規模テンソル完備化のためのMUlti-linearおよびNon Linear IdentificAtionフレームワークを提案する。
6つの実大規模テンソルの実験は、JULIAが既存のテンソル完備化アルゴリズムよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-01-31T20:18:41Z) - Robust M-estimation-based Tensor Ring Completion: a Half-quadratic
Minimization Approach [14.048989759890475]
我々はM推定器を誤差統計量として用いるテンソル環完備化への頑健なアプローチを開発する。
truncatedの特異値分解と行列分解に基づくHQに基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-19T04:37:50Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Tensor Completion via Tensor Networks with a Tucker Wrapper [28.83358353043287]
本論文では,タッカーラッパーを用いたテンソルネットワークを用いて低ランクテンソル完備化(LRTC)を解くことを提案する。
次に、未知の要素を更新するために、2段階の最小二乗法を用いる。
数値シミュレーションにより,提案アルゴリズムは最先端手法に匹敵することを示す。
論文 参考訳(メタデータ) (2020-10-29T17:54:01Z) - Tensor completion via nonconvex tensor ring rank minimization with
guaranteed convergence [16.11872681638052]
近年の研究では、テンソル環(TR)のランクはテンソル完備化において高い効果を示している。
最近提案されたTRランクは、特異値が等しくペナル化される重み付き和の中で構造を捉えることに基づいている。
本稿では,ロゼット型関数を非スムーズな緩和法として利用することを提案する。
論文 参考訳(メタデータ) (2020-05-14T03:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。