論文の概要: Online Tensor Inference
- arxiv url: http://arxiv.org/abs/2312.17111v1
- Date: Thu, 28 Dec 2023 16:37:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 15:35:54.622678
- Title: Online Tensor Inference
- Title(参考訳): オンラインテンソル推論
- Authors: Xin Wen (1), Will Wei Sun (2), Yichen Zhang (2) ((1) University of
Science and Technology of China, (2) Purdue University)
- Abstract要約: 従来のオフライン学習は、各計算繰り返しにおける全てのデータの保存と利用を伴い、高次元テンソルデータには実用的ではない。
既存の低ランクテンソル法は、オンラインの方法での統計的推論能力に欠ける。
本手法では,広範囲なメモリ要求を伴わずに効率的なリアルタイムデータ処理を実現するため,グラディエント・Descent (SGD) を用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent technological advances have led to contemporary applications that
demand real-time processing and analysis of sequentially arriving tensor data.
Traditional offline learning, involving the storage and utilization of all data
in each computational iteration, becomes impractical for high-dimensional
tensor data due to its voluminous size. Furthermore, existing low-rank tensor
methods lack the capability for statistical inference in an online fashion,
which is essential for real-time predictions and informed decision-making. This
paper addresses these challenges by introducing a novel online inference
framework for low-rank tensor learning. Our approach employs Stochastic
Gradient Descent (SGD) to enable efficient real-time data processing without
extensive memory requirements, thereby significantly reducing computational
demands. We establish a non-asymptotic convergence result for the online
low-rank SGD estimator, nearly matches the minimax optimal rate of estimation
error in offline models that store all historical data. Building upon this
foundation, we propose a simple yet powerful online debiasing approach for
sequential statistical inference in low-rank tensor learning. The entire online
procedure, covering both estimation and inference, eliminates the need for data
splitting or storing historical data, making it suitable for on-the-fly
hypothesis testing. Given the sequential nature of our data collection,
traditional analyses relying on offline methods and sample splitting are
inadequate. In our analysis, we control the sum of constructed
super-martingales to ensure estimates along the entire solution path remain
within the benign region. Additionally, a novel spectral representation tool is
employed to address statistical dependencies among iterative estimates,
establishing the desired asymptotic normality.
- Abstract(参考訳): 最近の技術進歩は、リアルタイム処理と順次到着するテンソルデータの分析を要求する現代の応用につながった。
従来のオフライン学習は、各計算繰り返しにおける全てのデータの保存と利用を伴い、その明るさのため高次元テンソルデータには実用的ではない。
さらに,従来の低ランクテンソル法では,リアルタイム予測や情報意思決定に不可欠な統計的推論能力が欠如している。
本稿では,低ランクテンソル学習のための新しいオンライン推論フレームワークを導入することで,これらの課題に対処する。
提案手法では,SGD (Stochastic Gradient Descent) を用いて,大規模なメモリを必要とすることなく効率的なリアルタイムデータ処理を実現する。
すべての履歴データを格納するオフラインモデルにおける推定誤差の最小値に近いオンライン低ランクsgd推定器の非漸近収束結果を確立する。
この基礎に基づいて,低ランクテンソル学習における逐次統計的推論のための,単純かつ強力なオンラインデバイアス手法を提案する。
推定と推論の両方をカバーするオンライン手続き全体は、データの分割や履歴データの保存の必要性をなくし、オンザフライ仮説テストに適している。
データ収集のシーケンシャルな性質を考えると、オフラインメソッドとサンプル分割に依存する従来の分析は不十分です。
分析では,構築したスーパーマーチンガールの総和を制御し,解経路全体の推定値が良性領域内に留まることを保証する。
さらに、新しいスペクトル表現ツールを用いて、反復推定の統計的依存関係に対処し、所望の漸近正規性を確立する。
関連論文リスト
- Adaptive debiased SGD in high-dimensional GLMs with streaming data [4.704144189806667]
我々は、高次元一般化線形モデルにおいて、オンライン推論に新しいアプローチを導入する。
本手法はシングルパスモードで動作し,時間と空間の複雑さを著しく低減する。
提案手法は,ADL (Approximated Debiased Lasso) と呼ばれ,有界な個人確率条件の必要性を緩和するだけでなく,数値性能も著しく向上することを示した。
論文 参考訳(メタデータ) (2024-05-28T15:36:48Z) - Efficient and Generalizable Certified Unlearning: A Hessian-free Recollection Approach [8.875278412741695]
機械学習は、特定のデータを選択的に忘れることを可能にして、データ所有者の権利を忘れないように努力する。
我々は,ベクトル加算操作のみを必要とするため,ほぼ瞬時に未学習を実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-04-02T07:54:18Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Near-optimal Offline Reinforcement Learning with Linear Representation:
Leveraging Variance Information with Pessimism [65.46524775457928]
オフライン強化学習は、オフライン/歴史的データを活用して、シーケンシャルな意思決定戦略を最適化しようとしている。
線形モデル表現を用いたオフライン強化学習の統計的限界について検討する。
論文 参考訳(メタデータ) (2022-03-11T09:00:12Z) - Pessimistic Q-Learning for Offline Reinforcement Learning: Towards
Optimal Sample Complexity [51.476337785345436]
有限水平マルコフ決定過程の文脈におけるQ-ラーニングの悲観的変種について検討する。
ほぼ最適サンプル複雑性を実現するために,分散再現型悲観的Q-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T15:39:36Z) - Gaining Outlier Resistance with Progressive Quantiles: Fast Algorithms
and Theoretical Studies [1.6457778420360534]
任意の損失関数を強固化するために, 外部抵抗推定の枠組みを導入する。
通常のデータセットでは、データ再見積の回数を大幅に削減できるような、開始点の要件を緩和する新しい手法が提案されている。
得られた推定器は、必ずしも大域的でも大域的でもなくても、両方の低次元において最適性を楽しむことができる。
論文 参考訳(メタデータ) (2021-12-15T20:35:21Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Online Tensor-Based Learning for Multi-Way Data [1.0953917735844645]
オンラインの$CANDECOMP/PARAFAC$分解のために、新しい効率的なテンソルベースの特徴抽出法NeSGDが提案されている。
その結果,提案手法は分類誤り率を大幅に改善し,時間とともに正のデータ分布の変化を同化することができ,全てのケーススタディにおいて高い予測精度を維持した。
論文 参考訳(メタデータ) (2020-03-10T02:04:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。