論文の概要: Performance of Rank-One Tensor Approximation on Incomplete Data
- arxiv url: http://arxiv.org/abs/2504.07818v1
- Date: Thu, 10 Apr 2025 14:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:22:19.253995
- Title: Performance of Rank-One Tensor Approximation on Incomplete Data
- Title(参考訳): 不完全データにおけるランクワンテンソル近似の性能
- Authors: Hugo Lebeau,
- Abstract要約: 本研究は, スペクトル解析により再構成性能にアクセス可能なランダム行列モデルに還元可能であることを示す。
これらの結果は、そのエントリのランダム部分の削除によるテンソルのメモリコストの人工的削減によって引き起こされるパフォーマンスの損失に光を当て、特定する。
- 参考スコア(独自算出の注目度): 1.8130068086063336
- License:
- Abstract: We are interested in the estimation of a rank-one tensor signal when only a portion $\varepsilon$ of its noisy observation is available. We show that the study of this problem can be reduced to that of a random matrix model whose spectral analysis gives access to the reconstruction performance. These results shed light on and specify the loss of performance induced by an artificial reduction of the memory cost of a tensor via the deletion of a random part of its entries.
- Abstract(参考訳): 我々は、そのノイズ観測の分である$\varepsilon$のみが利用できるとき、ランク1テンソル信号の推定に興味がある。
本研究は, スペクトル解析により再構成性能にアクセス可能なランダム行列モデルに還元可能であることを示す。
これらの結果は、そのエントリのランダム部分の削除によるテンソルのメモリコストの人工的削減によって引き起こされるパフォーマンスの損失に光を当て、特定する。
関連論文リスト
- Guaranteed Nonconvex Low-Rank Tensor Estimation via Scaled Gradient Descent [4.123899820318987]
本稿では,テンソル因子を直接推定するスケールド勾配降下法(ScaledGD)を提案する。
理論上、ScaledGD は基底真理低ランクテンソルの条件数に依存しない定数速度で線形収束を達成する。
虚弱条件下での低ランクテンソル推定の収束速度を加速する上でのScaledGDの有効性を示す数値的な例を提供する。
論文 参考訳(メタデータ) (2025-01-03T08:26:01Z) - Enabling Tensor Decomposition for Time-Series Classification via A Simple Pseudo-Laplacian Contrast [26.28414569796961]
本稿では, Pseudo Laplacian Contrast (PLC) テンソル分解フレームワークを提案する。
データ拡張とラプラシアンのクロスビューを統合し、クラス認識表現の抽出を可能にする。
様々なデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-23T16:48:13Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - Noisy Nonnegative Tucker Decomposition with Sparse Factors and Missing Data [28.226817588482565]
本研究では, 雑音下での非負データ回復のための, スパース非負のタッカー分解と補修法を提案する。
我々の理論結果は既存のテンソル法や行列法よりも優れている。
論文 参考訳(メタデータ) (2022-08-17T13:29:14Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Noisy Tensor Completion via Low-rank Tensor Ring [41.86521269183527]
テンソル完了は不完全なデータ解析の基本的なツールであり、その目標は部分的な観測から欠落するエントリを予測することである。
既存の手法は、観測されたエントリがノイズフリーであるという明示的あるいは暗黙的な仮定をしばしば示し、欠落したエントリの正確な回復を理論的に保証する。
本稿では,高次・高次観測の劣化処理における既存の作業の非効率性を補完する新しいノイズテンソル補完モデルを提案する。
論文 参考訳(メタデータ) (2022-03-14T14:09:43Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Alternating linear scheme in a Bayesian framework for low-rank tensor
approximation [5.833272638548154]
ベイズ推論問題を解くことにより、与えられたテンソルの低ランク表現を見つける。
本稿では,テンソルトレイン方式で無音変換を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-21T10:15:30Z) - The Generalized Lasso with Nonlinear Observations and Generative Priors [63.541900026673055]
我々は、幅広い測定モデルで満たされるガウス下測度を仮定する。
この結果から, 局所埋込特性を仮定して, 均一回復保証まで拡張できることが示唆された。
論文 参考訳(メタデータ) (2020-06-22T16:43:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。