論文の概要: Inference for Low-rank Tensors -- No Need to Debias
- arxiv url: http://arxiv.org/abs/2012.14844v1
- Date: Tue, 29 Dec 2020 16:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:41:58.552842
- Title: Inference for Low-rank Tensors -- No Need to Debias
- Title(参考訳): 低ランクテンソルの推論 - デバイアスは不要
- Authors: Dong Xia and Anru R. Zhang and Yuchen Zhou
- Abstract要約: 本稿では,低ランクテンソルモデルの統計的推論について考察する。
階数 1 の PCA モデルに対して、個々の特異テンソル上での推論の理論を確立する。
最後に、理論的な発見を裏付けるシミュレーションが提示される。
- 参考スコア(独自算出の注目度): 22.163281794187544
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we consider the statistical inference for several low-rank
tensor models. Specifically, in the Tucker low-rank tensor PCA or regression
model, provided with any estimates achieving some attainable error rate, we
develop the data-driven confidence regions for the singular subspace of the
parameter tensor based on the asymptotic distribution of an updated estimate by
two-iteration alternating minimization. The asymptotic distributions are
established under some essential conditions on the signal-to-noise ratio (in
PCA model) or sample size (in regression model). If the parameter tensor is
further orthogonally decomposable, we develop the methods and theory for
inference on each individual singular vector. For the rank-one tensor PCA
model, we establish the asymptotic distribution for general linear forms of
principal components and confidence interval for each entry of the parameter
tensor. Finally, numerical simulations are presented to corroborate our
theoretical discoveries.
In all these models, we observe that different from many matrix/vector
settings in existing work, debiasing is not required to establish the
asymptotic distribution of estimates or to make statistical inference on
low-rank tensors. In fact, due to the widely observed
statistical-computational-gap for low-rank tensor estimation, one usually
requires stronger conditions than the statistical (or information-theoretic)
limit to ensure the computationally feasible estimation is achievable.
Surprisingly, such conditions ``incidentally" render a feasible low-rank tensor
inference without debiasing.
- Abstract(参考訳): 本稿では,いくつかの低ランクテンソルモデルの統計的推論について考察する。
具体的には、タッカー低ランクテンソルPCAまたは回帰モデルにおいて、ある程度の誤差率を達成する推定値が与えられた場合、更新された推定値の漸近分布に基づいてパラメータテンソルの特異部分空間に対するデータ駆動信頼領域を開発する。
漸近分布は、信号対雑音比(PCAモデル)またはサンプルサイズ(回帰モデル)のいくつかの必須条件の下で確立される。
パラメータテンソルがさらに直交的に分解可能であれば、各特異ベクトルに対する推論法と理論を開発する。
ランク1テンソルPCAモデルでは、主成分の一般線形形式に対する漸近分布とパラメータテンソルの各エントリに対する信頼区間を確立する。
最後に,理論的な発見を補うために数値シミュレーションを行う。
これらのモデルすべてにおいて、既存の作業における行列/ベクトルの設定と異なり、推定の漸近分布の確立や低ランクテンソルの統計的推論にはデバイアスは不要である。
実際、低ランクテンソル推定のための広く観測された統計計算-gapのため、通常は計算可能な推定が達成可能であることを保証するために、統計(または情報理論)の限界よりも強い条件を必要とする。
驚くべきことに、このような条件 `incidentally" はデバイアスなしで低ランクテンソル推論を可能にする。
関連論文リスト
- Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Statistical and computational rates in high rank tensor estimation [11.193504036335503]
高次のテンソルデータセットは一般的にレコメンデーションシステム、ニューロイメージング、ソーシャルネットワークに現れる。
高階モデルと低階モデルの両方を組み込んだ生成潜在変数テンソルモデルを考える。
統計的-計算的ギャップは 3 以上の潜時変テンソルに対してのみ現れることを示す。
論文 参考訳(メタデータ) (2023-04-08T15:34:26Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Statistical Efficiency of Score Matching: The View from Isoperimetry [96.65637602827942]
本研究では, スコアマッチングの統計的効率と推定される分布の等尺性との間に, 密接な関係を示す。
これらの結果はサンプル状態と有限状態の両方で定式化する。
論文 参考訳(メタデータ) (2022-10-03T06:09:01Z) - Noisy Tensor Completion via Low-rank Tensor Ring [41.86521269183527]
テンソル完了は不完全なデータ解析の基本的なツールであり、その目標は部分的な観測から欠落するエントリを予測することである。
既存の手法は、観測されたエントリがノイズフリーであるという明示的あるいは暗黙的な仮定をしばしば示し、欠落したエントリの正確な回復を理論的に保証する。
本稿では,高次・高次観測の劣化処理における既存の作業の非効率性を補完する新しいノイズテンソル補完モデルを提案する。
論文 参考訳(メタデータ) (2022-03-14T14:09:43Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Sparse Nonnegative Tensor Factorization and Completion with Noisy
Observations [22.928734507082574]
部分的および雑音的な観測から, スパース非負のテンソル分解と完成問題について検討した。
提案手法の誤差境界は, 一般の騒音観測において確立可能であることを示す。
論文 参考訳(メタデータ) (2020-07-21T07:17:52Z) - Uncertainty quantification for nonconvex tensor completion: Confidence
intervals, heteroscedasticity and optimality [92.35257908210316]
本研究では,不完全かつ破損した観測によって与えられる低ランクテンソルを推定する問題について検討する。
改善不可能なレートをell-2$の精度で達成できることが分かりました。
論文 参考訳(メタデータ) (2020-06-15T17:47:13Z) - Nonparametric Score Estimators [49.42469547970041]
未知分布によって生成されたサンプルの集合からスコアを推定することは確率モデルの推論と学習における基本的なタスクである。
正規化非パラメトリック回帰の枠組みの下で、これらの推定器の統一的なビューを提供する。
カールフリーカーネルと高速収束による計算効果を享受する反復正規化に基づくスコア推定器を提案する。
論文 参考訳(メタデータ) (2020-05-20T15:01:03Z) - An Optimal Statistical and Computational Framework for Generalized
Tensor Estimation [10.899518267165666]
本稿では,低ランクテンソル推定問題に対するフレキシブルなフレームワークについて述べる。
計算画像、ゲノミクス、ネットワーク解析の応用から多くの重要な例を含む。
論文 参考訳(メタデータ) (2020-02-26T01:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。