論文の概要: Fourier Low-rank and Sparse Tensor for Efficient Tensor Completion
- arxiv url: http://arxiv.org/abs/2505.11261v1
- Date: Fri, 16 May 2025 13:54:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.17948
- Title: Fourier Low-rank and Sparse Tensor for Efficient Tensor Completion
- Title(参考訳): 鏡視下整復術におけるFourier Low-rank and Sparse Tensorの有用性
- Authors: Jingyang Li, Jiuqian Shang, Yang Chen,
- Abstract要約: 我々は、新しいモデル、UnderlineFourier UnderlineLow-rankとUnderlineSparse UnderlineTensor(FLoST)を提案する。
FLoSTは変換を用いてテンソルを時間次元に沿って分解する。
低周波成分と低周波成分と低周波成分を疎らさで捕捉し、滑らかな変動と局所的な変動の両方を効率的にモデル化するハイブリッド構造をもたらす。
- 参考スコア(独自算出の注目度): 11.949952079083026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensor completion is crucial in many scientific domains with missing data problems. Traditional low-rank tensor models, including CP, Tucker, and Tensor-Train, exploit low-dimensional structures to recover missing data. However, these methods often treat all tensor modes symmetrically, failing to capture the unique spatiotemporal patterns inherent in scientific data, where the temporal component exhibits both low-frequency stability and high-frequency variations. To address this, we propose a novel model, \underline{F}ourier \underline{Lo}w-rank and \underline{S}parse \underline{T}ensor (FLoST), which decomposes the tensor along the temporal dimension using a Fourier transform. This approach captures low-frequency components with low-rank matrices and high-frequency fluctuations with sparsity, resulting in a hybrid structure that efficiently models both smooth and localized variations. Compared to the well-known tubal-rank model, which assumes low-rankness across all frequency components, FLoST requires significantly fewer parameters, making it computationally more efficient, particularly when the time dimension is large. Through theoretical analysis and empirical experiments, we demonstrate that FLoST outperforms existing tensor completion models in terms of both accuracy and computational efficiency, offering a more interpretable solution for spatiotemporal data reconstruction.
- Abstract(参考訳): テンソルの完成は、データに問題がある多くの科学領域において重要である。
CP、タッカー、テンソル・トレインなどの伝統的な低ランクテンソルモデルは、欠落したデータを復元するために低次元構造を利用する。
しかしながら、これらの手法はしばしばすべてのテンソルモードを対称に扱うが、科学的データに固有のユニークな時相パターンを捉えることができず、時間成分は低周波安定性と高周波変動の両方を示す。
これを解決するために、フーリエ変換を用いてテンソルを時間次元に沿って分解する新しいモデルである \underline{F}ourier \underline{Lo}w-rank と \underline{S}parse \underline{T}ensor (FLoST) を提案する。
このアプローチは、低ランク行列を持つ低周波成分と、スパシティを持つ高周波変動を捕捉し、滑らかな変動と局所的な変動の両方を効率的にモデル化するハイブリッド構造をもたらす。
全ての周波数成分に対して低ランクを仮定するよく知られたチューバランクモデルと比較して、FLoSTはパラメータを著しく少なくし、特に時間次元が大きい場合には計算効率が向上する。
理論的解析と実証実験により、FLoSTは既存のテンソル完備化モデルよりも精度と計算効率の両方で優れ、時空間データ再構成のためのより解釈可能な解を提供することを示した。
関連論文リスト
- Functional Complexity-adaptive Temporal Tensor Decomposition [17.61798738261815]
機能的アンダーラインコンプレシティ-アンダーライン適応アンダーラインテンソルダンダーラインエコレーション(textscCatte)を提案する。
提案手法では,連続的な空間指標を学習可能なフーリエ特徴としてエンコードし,潜時空間におけるニューラルODEを用いて時間的要因の軌跡を学習する。
分析的エビデンスを低く抑えた効率的な変分推論手法を開発し,サンプリング不要な最適化を実現する。
論文 参考訳(メタデータ) (2025-02-10T05:27:11Z) - Irregular Tensor Low-Rank Representation for Hyperspectral Image Representation [71.69331824668954]
スペクトル変動は、ハイパースペクトル画像(HSI)解析において共通の課題となる
低ランクテンソル表現は、HSIデータに固有の相関を利用して、堅牢な戦略として登場した。
本研究では,不規則な3次元立方体を効率的にモデル化するために,不規則なテンソルローランク表現のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-10-24T02:56:22Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Scalable Spatiotemporally Varying Coefficient Modelling with Bayesian Kernelized Tensor Regression [17.158289775348063]
カーネル化されたテンソル回帰(BKTR)は、低ランクの時間構造を持つモデリングプロセスに対する新しいスケーラブルなアプローチと考えられる。
そこで本研究では,BKTRのモデル推定と推定において,BKTRの優れた性能と効率性を確認した。
論文 参考訳(メタデータ) (2021-08-31T19:22:23Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Spatio-Temporal Graph Scattering Transform [54.52797775999124]
グラフニューラルネットワークは、十分な高品質のトレーニングデータがないために、現実のシナリオでは実用的ではないかもしれない。
我々は時間的データを解析するための数学的に設計された新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2020-12-06T19:49:55Z) - Scalable Low-Rank Tensor Learning for Spatiotemporal Traffic Data
Imputation [12.520128611313833]
本稿では,大規模トラフィックデータに対する欠落したデータ計算問題に対処することに焦点を当てる。
精度と効率を両立させるため,スケーラブルなテンソル学習モデルであるローランカル・ランク・コンプリートを開発した。
LSTC-Tubalは計算コストを大幅に削減して競争精度を予測できることがわかった。
論文 参考訳(メタデータ) (2020-08-07T14:19:07Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。