論文の概要: Streaming probabilistic tensor train decomposition
- arxiv url: http://arxiv.org/abs/2302.12148v1
- Date: Thu, 23 Feb 2023 16:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 14:30:42.277366
- Title: Streaming probabilistic tensor train decomposition
- Title(参考訳): ストリーム化確率テンソル列車分解
- Authors: Yunyu Huang, Yani Feng, Qifeng Liao
- Abstract要約: 本稿では, テンソルトレイン(TT)分解に基づく新しいベイズ流テンソル分解法を提案する。
特に、TT分解は高次テンソルを表現する効率的なアプローチである。
合成および実世界のデータを用いた実験は,我々のアルゴリズムの精度を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Bayesian streaming tensor decomposition method is a novel method to
discover the low-rank approximation of streaming data. However, when the
streaming data comes from a high-order tensor, tensor structures of existing
Bayesian streaming tensor decomposition algorithms may not be suitable in terms
of representation and computation power. In this paper, we present a new
Bayesian streaming tensor decomposition method based on tensor train (TT)
decomposition. Especially, TT decomposition renders an efficient approach to
represent high-order tensors. By exploiting the streaming variational inference
(SVI) framework and TT decomposition, we can estimate the latent structure of
high-order incomplete noisy streaming tensors. The experiments in synthetic and
real-world data show the accuracy of our algorithm compared to the
state-of-the-art Bayesian streaming tensor decomposition approaches.
- Abstract(参考訳): ベイジアンストリーミングテンソル分解法は,ストリーミングデータの低ランク近似を発見する新しい方法である。
しかし、ストリーミングデータが高次テンソルから来るとき、既存のベイズストリーミングテンソル分解アルゴリズムのテンソル構造は、表現と計算能力の観点からは適切ではないかもしれない。
本稿では,テンソル列(tt)分解に基づく新しいベイズ流テンソル分解法を提案する。
特に、TT分解は高次テンソルを表現する効率的なアプローチである。
SVI(Stream variational Inference)フレームワークとTT分解を利用して、高次不完全雑音型ストリーミングテンソルの潜時構造を推定できる。
合成および実世界のデータを用いた実験は、最先端のベイズ流テンソル分解法と比較してアルゴリズムの精度を示している。
関連論文リスト
- To Fold or Not to Fold: Graph Regularized Tensor Train for Visual Data
Completion [18.563630736858862]
データのテンソルを折り畳まないよう検討し、同時にグラフ情報を用いて近隣のエントリ間の局所的類似性を規則化する。
TT完了問題におけるグラフベースの正規化によって引き起こされる高い計算複雑性を克服するため,元の問題を複数のサブプロブレムに分割することを提案する。
合成データと実世界の視覚データの両方を用いた実験は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2023-06-19T18:54:51Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Refining Amortized Posterior Approximations using Gradient-Based Summary
Statistics [0.9176056742068814]
逆問題の文脈における後部分布の補正近似を改善するための反復的枠組みを提案する。
そこで我々は,本手法をスタイリング問題に適用して制御条件で検証し,改良された後部近似を各繰り返しで観察する。
論文 参考訳(メタデータ) (2023-05-15T15:47:19Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Dataset Distillation via Factorization [58.8114016318593]
既存のデータセット蒸留(DD)ベースラインに移植可能なプラグ・アンド・プレイ戦略であるEmphHaBaと呼ばれるEmphdataset Factorizationアプローチを導入する。
emphHaBaは、データセットをデータemphHallucinationネットワークとemphBaseの2つのコンポーネントに分解する方法を探っている。
提案手法は, 圧縮パラメータの総数を最大65%削減しつつ, 下流の分類タスクを従来に比べて大幅に改善することができる。
論文 参考訳(メタデータ) (2022-10-30T08:36:19Z) - Langevin Monte Carlo for Contextual Bandits [72.00524614312002]
Langevin Monte Carlo Thompson Sampling (LMC-TS) が提案されている。
提案アルゴリズムは,文脈的帯域幅の特別な場合において,最高のトンプソンサンプリングアルゴリズムと同じサブ線形残差を達成できることを示す。
論文 参考訳(メタデータ) (2022-06-22T17:58:23Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - Tensor Train Random Projection [0.0]
本研究は、次元減少のための新しいテンソルトレインランダムプロジェクション(TTRP)法を提案する。
我々のTTRPは、TTランクが1に等しいテンソルトレイン表現によって体系的に構築されている。
テンソルトレイン形式に基づいて、この新しいランダムプロジェクション法は、高次元データセットの次元削減手順を高速化することができる。
論文 参考訳(メタデータ) (2020-10-21T07:31:45Z) - A Unified Framework for Coupled Tensor Completion [42.19293115131073]
結合テンソル分解は、潜在結合因子に由来する事前知識を組み込むことで、結合データ構造を明らかにする。
TRは強力な表現能力を持ち、いくつかの多次元データ処理アプリケーションで成功している。
提案手法は, 合成データに関する数値実験で検証され, 実世界のデータに対する実験結果は, 回収精度の観点から, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-09T02:15:46Z) - Nonparametric Bayesian volatility learning under microstructure noise [2.812395851874055]
市場マイクロ構造騒音下でのボラティリティ学習の課題について検討する。
具体的には、微分方程式からノイズの多い離散時間観測を考察する。
方程式の拡散係数を学習するための新しい計算法を開発した。
論文 参考訳(メタデータ) (2018-05-15T07:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。