論文の概要: On $O( \max \{n_1, n_2 \}\log ( \max \{ n_1, n_2 \} n_3) )$ Sample
Entries for $n_1 \times n_2 \times n_3$ Tensor Completion via Unitary
Transformation
- arxiv url: http://arxiv.org/abs/2012.08784v1
- Date: Wed, 16 Dec 2020 08:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 10:04:46.739238
- Title: On $O( \max \{n_1, n_2 \}\log ( \max \{ n_1, n_2 \} n_3) )$ Sample
Entries for $n_1 \times n_2 \times n_3$ Tensor Completion via Unitary
Transformation
- Title(参考訳): 単元変換による$O( \max \{n_1, n_2 \}\log ( \max \{n_1, n_2 \} n_3) )$n_1 \times n_2 \times n_3$ Tensor Completion
- Authors: Guang-Jing Song, Michael K. Ng and Xiongjun Zhang
- Abstract要約: 本稿では,$n_3$低ランク$n_3$低ランク$n_3$マトリックススライスの非一貫性条件について検討する。
このような低ランクテンソルは高い確率で正確に復元できることを示す。
- 参考スコア(独自算出の注目度): 20.854908850239035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the key problems in tensor completion is the number of uniformly
random sample entries required for recovery guarantee. The main aim of this
paper is to study $n_1 \times n_2 \times n_3$ third-order tensor completion and
investigate into incoherence conditions of $n_3$ low-rank $n_1$-by-$n_2$ matrix
slices under the transformed tensor singular value decomposition where the
unitary transformation is applied along $n_3$-dimension. We show that such
low-rank tensors can be recovered exactly with high probability when the number
of randomly observed entries is of order $O( r\max \{n_1, n_2 \} \log ( \max \{
n_1, n_2 \} n_3))$, where $r$ is the sum of the ranks of these $n_3$ matrix
slices in the transformed tensor. By utilizing synthetic data and imaging data
sets, we demonstrate that the theoretical result can be obtained under valid
incoherence conditions, and the tensor completion performance of the proposed
method is also better than that of existing methods in terms of sample sizes
requirement.
- Abstract(参考訳): テンソル補完の重要な問題の1つは、回復保証に必要な一様ランダムなサンプルエントリの数である。
本論文の主な目的は、$n_1 \times n_2 \times n_3$ third-order tensor completion を研究し、$n_3$ low-rank $n_1$-by-$n_2$ matrix slices の非コヒーレンス条件を、$n_3$-dimension に沿ってユニタリ変換を適用した変換テンソル特異値分解の下で検討することである。
そのような低ランクテンソルは、ランダムに観測された成分の数が次数$O( r\max \{n_1, n_2 \} \log ( \max \{n_1, n_2 \} n_3))$である場合、高い確率で復元可能である。
合成データと画像データセットを用いて, 有効不整合条件下で理論結果が得られることを示すとともに, 提案手法のテンソル完了性能は, サンプルサイズ要件の観点からも既存の手法よりも優れていることを示した。
関連論文リスト
- Overcomplete Tensor Decomposition via Koszul-Young Flattenings [63.01248796170617]
最小ランク1項の和として$n_times n times n_3$ tensorを分解する新しいアルゴリズムを与える。
次数-d$s のさらに一般的なクラスは、定数 $C = C(d)$ に対して階数 $Cn$ を超えることができないことを示す。
論文 参考訳(メタデータ) (2024-11-21T17:41:09Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Identification of Mixtures of Discrete Product Distributions in
Near-Optimal Sample and Time Complexity [6.812247730094931]
任意の$ngeq 2k-1$に対して、サンプルの複雑さとランタイムの複雑さをどうやって達成するかを示す(1/zeta)O(k)$。
また、既知の$eOmega(k)$の下位境界を拡張して、より広い範囲の$zeta$と一致させる。
論文 参考訳(メタデータ) (2023-09-25T09:50:15Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Optimal Query Complexities for Dynamic Trace Estimation [59.032228008383484]
我々は,行列がゆっくりと変化している動的環境において,正確なトレース推定に必要な行列ベクトルクエリ数を最小化する問題を考える。
我々は、$delta$失敗確率で$epsilon$エラーまで、すべての$m$トレースを同時に推定する新しいバイナリツリー要約手順を提供する。
我々の下界(1)は、静的な設定においてもフロベニウスノルム誤差を持つ行列ベクトル積モデルにおけるハッチンソン推定子の第一の厳密な境界を与え、(2)動的トレース推定のための最初の無条件下界を与える。
論文 参考訳(メタデータ) (2022-09-30T04:15:44Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z) - Exact nuclear norm, completion and decomposition for random overcomplete
tensors via degree-4 SOS [0.7233897166339269]
次数4$SOSにインスパイアされた単純な半定値プログラムは、ランダムな非対称成分を持つテンソル上のテンソル核ノルム、テンソル分解、テンソル完備化問題を正確に解くことができることを示す。
これらの半定値プログラムは、$(ntimes ntimes n)$-tensor $mathcalT$と$mleq n3/2/polylog(n)$ランダム非対称成分の核ノルムと成分を正確に見つけることができることを示す。
論文 参考訳(メタデータ) (2020-11-18T17:27:36Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - A Sub-sampled Tensor Method for Non-convex Optimization [0.0]
有限サム構造を持つ滑らかで潜在的に有意な関数の局所最小値を求めるために, 4階正則化モデルを用いる手法を提案する。
論文 参考訳(メタデータ) (2019-11-23T13:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。