論文の概要: Upper Bound of Real Log Canonical Threshold of Tensor Decomposition and
its Application to Bayesian Inference
- arxiv url: http://arxiv.org/abs/2303.05731v2
- Date: Mon, 3 Apr 2023 09:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 21:00:54.735715
- Title: Upper Bound of Real Log Canonical Threshold of Tensor Decomposition and
its Application to Bayesian Inference
- Title(参考訳): テンソル分解における実対数正準閾値の上界とベイズ推定への応用
- Authors: Naoki Yoshida and Sumio Watanabe
- Abstract要約: テンソル分解における実対数正準しきい値(RLCT)の上限を与える。
数値実験により,その数学的性質についても考察する。
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor decomposition is now being used for data analysis, information
compression, and knowledge recovery. However, the mathematical property of
tensor decomposition is not yet fully clarified because it is one of singular
learning machines. In this paper, we give the upper bound of its real log
canonical threshold (RLCT) of the tensor decomposition by using an algebraic
geometrical method and derive its Bayesian generalization error theoretically.
We also give considerations about its mathematical property through numerical
experiments.
- Abstract(参考訳): テンソル分解は現在、データ分析、情報圧縮、知識回復に使われている。
しかし、テンソル分解の数学的性質は特異学習機の1つであるため、まだ完全には解明されていない。
本稿では,代数幾何学的手法を用いてテンソル分解の実対正準しきい値(rlct)の上界を与え,ベイズ一般化誤差を理論的に導出する。
また,その数学的性質を数値実験によって考察する。
関連論文リスト
- Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - The Inductive Bias of Flatness Regularization for Deep Matrix
Factorization [58.851514333119255]
この研究は、ディープ線形ネットワークにおけるヘッセン解の最小トレースの帰納バイアスを理解するための第一歩となる。
測定値の標準等尺性(RIP)が1より大きいすべての深さについて、ヘッセンのトレースを最小化することは、対応する終端行列パラメータのシャッテン 1-ノルムを最小化するのとほぼ同値であることを示す。
論文 参考訳(メタデータ) (2023-06-22T23:14:57Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Newton Cradle Spectra [0.0]
固有値と固有ベクトルの挙動に関する非摂動的な結果を示す。
これらの結果を量子コンピューティングと情報理論に適用する。
論文 参考訳(メタデータ) (2022-06-20T18:00:02Z) - On Convergence of Training Loss Without Reaching Stationary Points [62.41370821014218]
ニューラルネットワークの重み変数は、損失関数の勾配が消える定常点に収束しないことを示す。
エルゴード理論の力学系に基づく新しい視点を提案する。
論文 参考訳(メタデータ) (2021-10-12T18:12:23Z) - Partial Counterfactual Identification from Observational and
Experimental Data [83.798237968683]
観測データと実験データの任意の組み合わせから最適境界を近似する有効なモンテカルロアルゴリズムを開発した。
我々のアルゴリズムは、合成および実世界のデータセットに基づいて広範囲に検証されている。
論文 参考訳(メタデータ) (2021-10-12T02:21:30Z) - Non-negative matrix and tensor factorisations with a smoothed
Wasserstein loss [0.0]
最適輸送損失に対する行列とテンソルの非負係数を計算するための一般的な数学的枠組みを紹介します。
本手法の適用性をいくつかの数値例で示す。
論文 参考訳(メタデータ) (2021-04-04T22:42:21Z) - The Exact Asymptotic Form of Bayesian Generalization Error in Latent
Dirichlet Allocation [0.0]
代数幾何学を用いた学習の理論解析により、その一般化誤差と限界確率の正確な形を与える。
数値実験は理論結果と一致している。
論文 参考訳(メタデータ) (2020-08-04T03:26:16Z) - Geometric All-Way Boolean Tensor Decomposition [14.065968221500246]
幾何的視点からテンソルのランク-1 基底を逐次同定する GETF を提案する。
合成データと実世界のデータの両方の実験により、GETFは復元精度、潜伏構造の抽出性能を大幅に向上し、他の最先端手法よりも桁違いに高速であることが示された。
論文 参考訳(メタデータ) (2020-07-31T03:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。