論文の概要: Alternating linear scheme in a Bayesian framework for low-rank tensor
approximation
- arxiv url: http://arxiv.org/abs/2012.11228v1
- Date: Mon, 21 Dec 2020 10:15:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:07:42.549253
- Title: Alternating linear scheme in a Bayesian framework for low-rank tensor
approximation
- Title(参考訳): 低ランクテンソル近似のベイズ枠組みにおける交互線型スキーム
- Authors: Clara Menzen, Manon Kok, Kim Batselier
- Abstract要約: ベイズ推論問題を解くことにより、与えられたテンソルの低ランク表現を見つける。
本稿では,テンソルトレイン方式で無音変換を行うアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.833272638548154
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Multiway data often naturally occurs in a tensorial format which can be
approximately represented by a low-rank tensor decomposition. This is useful
because complexity can be significantly reduced and the treatment of
large-scale data sets can be facilitated. In this paper, we find a low-rank
representation for a given tensor by solving a Bayesian inference problem. This
is achieved by dividing the overall inference problem into sub-problems where
we sequentially infer the posterior distribution of one tensor decomposition
component at a time. This leads to a probabilistic interpretation of the
well-known iterative algorithm alternating linear scheme (ALS). In this way,
the consideration of measurement noise is enabled, as well as the incorporation
of application-specific prior knowledge and the uncertainty quantification of
the low-rank tensor estimate. To compute the low-rank tensor estimate from the
posterior distributions of the tensor decomposition components, we present an
algorithm that performs the unscented transform in tensor train format.
- Abstract(参考訳): マルチウェイデータはしばしば、低ランクテンソル分解によって概ね表されるテンソル形式で自然に発生する。
これは、複雑さを著しく低減し、大規模データセットの処理を容易にするために有用である。
本論文では,ベイズ推論問題を解くことにより,与えられたテンソルの低ランク表現を求める。
これは、全体の推論問題を1つのテンソル分解成分の後方分布を順次推測する部分問題に分割することで達成される。
これはよく知られた反復アルゴリズム交代線形スキーム(als)の確率論的解釈につながる。
このようにして、測定ノイズの考慮と、応用固有の事前知識の組み込みと、低ランクテンソル推定の不確かさの定量化が可能となる。
テンソル分解成分の後方分布から低ランクテンソル推定を計算するために, テンソルトレイン形式で非香り変換を行うアルゴリズムを提案する。
関連論文リスト
- Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - Decomposition of linear tensor transformations [0.0]
本研究の目的は, 正確なテンソル分解のための数学的枠組みを開発することである。
論文では3つの異なる問題を導出する。
論文 参考訳(メタデータ) (2023-09-14T16:14:38Z) - Tensor Factorization via Transformed Tensor-Tensor Product for Image
Alignment [3.0969191504482243]
本研究では,観測画像が未知の領域変換によって変形する線形相関画像アライメントの問題について検討する。
3階テンソルの正面スライスとしてこれらの画像を積み重ねることで,基礎となるテンソルの低ランク性について検討する。
論文 参考訳(メタデータ) (2022-12-12T05:52:26Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Deep importance sampling using tensor trains with application to a
priori and a posteriori rare event estimation [2.4815579733050153]
本研究では,高次元問題における希少事象確率推定に適した重要度サンプリング手法を提案する。
次数保存変換の合成による参照分布のプッシュフォワードとして、一般的な重要サンプリング問題における最適重要性分布を近似する。
正方形テンソル-トレイン分解は、密度近似による秩序保存された高次元変換を構築するためのスケーラブルなアンザッツを提供する。
論文 参考訳(メタデータ) (2022-09-05T12:44:32Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - Understanding Deflation Process in Over-parametrized Tensor
Decomposition [17.28303004783945]
過度にパラメータ化されたテンソル分解問題における勾配流のトレーニング力学について検討する。
経験的に、このようなトレーニングプロセスは、まず大きなコンポーネントに適合し、次に小さなコンポーネントを発見する。
論文 参考訳(メタデータ) (2021-06-11T18:51:36Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Uncertainty quantification for nonconvex tensor completion: Confidence
intervals, heteroscedasticity and optimality [92.35257908210316]
本研究では,不完全かつ破損した観測によって与えられる低ランクテンソルを推定する問題について検討する。
改善不可能なレートをell-2$の精度で達成できることが分かりました。
論文 参考訳(メタデータ) (2020-06-15T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。