論文の概要: Towards Efficient and Accurate Approximation: Tensor Decomposition Based
on Randomized Block Krylov Iteration
- arxiv url: http://arxiv.org/abs/2211.14828v1
- Date: Sun, 27 Nov 2022 13:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:23:21.918094
- Title: Towards Efficient and Accurate Approximation: Tensor Decomposition Based
on Randomized Block Krylov Iteration
- Title(参考訳): ランダム化ブロッククリロフ反復に基づくテンソル分解の効率的・高精度化に向けて
- Authors: Yichun Qiu, Weijun Sun, Guoxu Zhou, Qibin Zhao
- Abstract要約: 本研究は, rBKI-TKに基づく階層テンソルリング分解を用いて, rBKI-TKを精度よく近似するタッカー分解(rBKI-TK)を設計し, 大規模データの効率的な圧縮を行う。
データ圧縮と復調の両方において,提案手法の効率性,精度,スケーラビリティを数値的に示す。
- 参考スコア(独自算出の注目度): 27.85452105378894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient and accurate low-rank approximation (LRA) methods are of great
significance for large-scale data analysis. Randomized tensor decompositions
have emerged as powerful tools to meet this need, but most existing methods
perform poorly in the presence of noise interference. Inspired by the
remarkable performance of randomized block Krylov iteration (rBKI) in reducing
the effect of tail singular values, this work designs an rBKI-based Tucker
decomposition (rBKI-TK) for accurate approximation, together with a
hierarchical tensor ring decomposition based on rBKI-TK for efficient
compression of large-scale data. Besides, the error bound between the
deterministic LRA and the randomized LRA is studied. Numerical experiences
demonstrate the efficiency, accuracy and scalability of the proposed methods in
both data compression and denoising.
- Abstract(参考訳): 大規模データ解析において効率的かつ高精度なlra法が重要である。
ランダム化テンソル分解は、このニーズを満たす強力なツールとして登場したが、既存のほとんどの手法はノイズ干渉の存在下では不十分である。
末尾特異値の効果を低減するためにランダム化されたブロッククリロフ反復(rBKI)の顕著な性能にインスパイアされたこの研究は、rBKIベースのタッカー分解(rBKI-TK)を設計し、大規模データの効率的な圧縮のためのrBKI-TKに基づく階層テンソルリング分解を設計する。
さらに、決定論的LRAとランダム化されたLRAとの間の誤差を研究する。
データ圧縮と復調の両方において,提案手法の効率性,精度,スケーラビリティを数値的に示す。
関連論文リスト
- Triply Laplacian Scale Mixture Modeling for Seismic Data Noise Suppression [51.87076090814921]
ポーラシティに基づくテンソルリカバリ法は, 地震データノイズを抑制する大きな可能性を示している。
本研究では, 3次元ラプラシアンスケール混合(TLSM)による地震波の抑制手法を提案する。
論文 参考訳(メタデータ) (2025-02-20T08:28:01Z) - Robust Anomaly Detection via Tensor Chidori Pseudoskeleton Decomposition [0.0]
現代のデータ駆動アプリケーションでは、異常検出が重要な役割を果たす。
距離、密度、クラスタベースの手法といった従来のアプローチは、高次元テンソルデータに適用する際の課題に直面している。
本稿では, 千鳥擬似骨格分解を利用して, スパース異常を分離しながら低いタッカーランク構造を抽出する。
論文 参考訳(メタデータ) (2025-02-14T05:34:57Z) - Robust Representation Consistency Model via Contrastive Denoising [83.47584074390842]
ランダムな平滑化は、敵の摂動に対する堅牢性を証明する理論的保証を提供する。
拡散モデルは、ノイズ摂動サンプルを浄化するためにランダムな平滑化に成功している。
我々は,画素空間における拡散軌跡に沿った生成的モデリングタスクを,潜在空間における識別的タスクとして再構成する。
論文 参考訳(メタデータ) (2025-01-22T18:52:06Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Scalable and Robust Tensor Ring Decomposition for Large-scale Data [12.02023514105999]
本稿では,大規模テンソルデータに欠落したエントリと粗悪な破損を扱えるスケーラブルで堅牢なTR分解アルゴリズムを提案する。
まず, 欠落したエントリを適応的に満たし, 分解過程における外れ値の同定が可能な, 自己重み付き急勾配降下法を開発した。
論文 参考訳(メタデータ) (2023-05-15T22:08:47Z) - Hotelling Deflation on Large Symmetric Spiked Tensors [10.706763980556445]
逐次ランク1近似により得られるベクトルのアライメントの観点から,デフレの大きな次元的性能を正確に評価する。
本分析により,雑音の存在下でのデフレ機構の理解が可能となり,より効率的な信号推定法の設計に利用することができる。
論文 参考訳(メタデータ) (2023-04-20T12:16:05Z) - Fast and Provable Tensor Robust Principal Component Analysis via Scaled
Gradient Descent [30.299284742925852]
本稿では、テンソルロバスト主成分分析(RPCA)に取り組む。
希少な腐敗によって汚染された観測から低ランクのテンソルを回収することを目的としている。
提案アルゴリズムは, 最先端行列やテンソルRPCAアルゴリズムよりも, より優れた, よりスケーラブルな性能を実現する。
論文 参考訳(メタデータ) (2022-06-18T04:01:32Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Disentangled Information Bottleneck [22.587164077221917]
ターゲット予測性能の損失を伴わずに、最大圧縮源に一貫性のあるDisentangled Information Bottleneck(DisenIB)を紹介します。
提案手法は最大圧縮に一貫性があり, 一般化, 敵攻撃に対する堅牢性, 分布外検出, 教師付きディエンタングリングの点で良好に機能する。
論文 参考訳(メタデータ) (2020-12-14T09:44:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。