論文の概要: Towards Efficient and Accurate Approximation: Tensor Decomposition Based
on Randomized Block Krylov Iteration
- arxiv url: http://arxiv.org/abs/2211.14828v1
- Date: Sun, 27 Nov 2022 13:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:23:21.918094
- Title: Towards Efficient and Accurate Approximation: Tensor Decomposition Based
on Randomized Block Krylov Iteration
- Title(参考訳): ランダム化ブロッククリロフ反復に基づくテンソル分解の効率的・高精度化に向けて
- Authors: Yichun Qiu, Weijun Sun, Guoxu Zhou, Qibin Zhao
- Abstract要約: 本研究は, rBKI-TKに基づく階層テンソルリング分解を用いて, rBKI-TKを精度よく近似するタッカー分解(rBKI-TK)を設計し, 大規模データの効率的な圧縮を行う。
データ圧縮と復調の両方において,提案手法の効率性,精度,スケーラビリティを数値的に示す。
- 参考スコア(独自算出の注目度): 27.85452105378894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient and accurate low-rank approximation (LRA) methods are of great
significance for large-scale data analysis. Randomized tensor decompositions
have emerged as powerful tools to meet this need, but most existing methods
perform poorly in the presence of noise interference. Inspired by the
remarkable performance of randomized block Krylov iteration (rBKI) in reducing
the effect of tail singular values, this work designs an rBKI-based Tucker
decomposition (rBKI-TK) for accurate approximation, together with a
hierarchical tensor ring decomposition based on rBKI-TK for efficient
compression of large-scale data. Besides, the error bound between the
deterministic LRA and the randomized LRA is studied. Numerical experiences
demonstrate the efficiency, accuracy and scalability of the proposed methods in
both data compression and denoising.
- Abstract(参考訳): 大規模データ解析において効率的かつ高精度なlra法が重要である。
ランダム化テンソル分解は、このニーズを満たす強力なツールとして登場したが、既存のほとんどの手法はノイズ干渉の存在下では不十分である。
末尾特異値の効果を低減するためにランダム化されたブロッククリロフ反復(rBKI)の顕著な性能にインスパイアされたこの研究は、rBKIベースのタッカー分解(rBKI-TK)を設計し、大規模データの効率的な圧縮のためのrBKI-TKに基づく階層テンソルリング分解を設計する。
さらに、決定論的LRAとランダム化されたLRAとの間の誤差を研究する。
データ圧縮と復調の両方において,提案手法の効率性,精度,スケーラビリティを数値的に示す。
関連論文リスト
- Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Scalable and Robust Tensor Ring Decomposition for Large-scale Data [12.02023514105999]
本稿では,大規模テンソルデータに欠落したエントリと粗悪な破損を扱えるスケーラブルで堅牢なTR分解アルゴリズムを提案する。
まず, 欠落したエントリを適応的に満たし, 分解過程における外れ値の同定が可能な, 自己重み付き急勾配降下法を開発した。
論文 参考訳(メタデータ) (2023-05-15T22:08:47Z) - Hotelling Deflation on Large Symmetric Spiked Tensors [10.706763980556445]
逐次ランク1近似により得られるベクトルのアライメントの観点から,デフレの大きな次元的性能を正確に評価する。
本分析により,雑音の存在下でのデフレ機構の理解が可能となり,より効率的な信号推定法の設計に利用することができる。
論文 参考訳(メタデータ) (2023-04-20T12:16:05Z) - Fast and Provable Tensor Robust Principal Component Analysis via Scaled
Gradient Descent [30.299284742925852]
本稿では、テンソルロバスト主成分分析(RPCA)に取り組む。
希少な腐敗によって汚染された観測から低ランクのテンソルを回収することを目的としている。
提案アルゴリズムは, 最先端行列やテンソルRPCAアルゴリズムよりも, より優れた, よりスケーラブルな性能を実現する。
論文 参考訳(メタデータ) (2022-06-18T04:01:32Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - On the Role of Entropy-based Loss for Learning Causal Structures with
Continuous Optimization [27.613220411996025]
因果構造学習問題を最小二乗損失を用いた連続最適化問題として定式化する。
ガウス雑音の仮定に違反すると因果方向の同定が妨げられることを示す。
より一般的なエントロピーに基づく損失は、任意の雑音分布下での確率スコアと理論的に一致している。
論文 参考訳(メタデータ) (2021-06-05T08:29:51Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Disentangled Information Bottleneck [22.587164077221917]
ターゲット予測性能の損失を伴わずに、最大圧縮源に一貫性のあるDisentangled Information Bottleneck(DisenIB)を紹介します。
提案手法は最大圧縮に一貫性があり, 一般化, 敵攻撃に対する堅牢性, 分布外検出, 教師付きディエンタングリングの点で良好に機能する。
論文 参考訳(メタデータ) (2020-12-14T09:44:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。