論文の概要: A Closed Form Solution to Best Rank-1 Tensor Approximation via KL
divergence Minimization
- arxiv url: http://arxiv.org/abs/2103.02898v1
- Date: Thu, 4 Mar 2021 08:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 15:06:48.297970
- Title: A Closed Form Solution to Best Rank-1 Tensor Approximation via KL
divergence Minimization
- Title(参考訳): KL発散最小化によるベストランク-1テンソル近似の閉形式解
- Authors: Kazu Ghalamkari, Mahito Sugiyama
- Abstract要約: LS誤差の代わりにKL分岐を考えると、ランク-1テンソルの閉形式解を解析的に導出できることを示した。
我々は,我々のアルゴリズムが既存のランク1近似法よりも桁違いに高速であることを示す。
- 参考スコア(独自算出の注目度): 8.020742121274417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor decomposition is a fundamentally challenging problem. Even the
simplest case of tensor decomposition, the rank-1 approximation in terms of the
Least Squares (LS) error, is known to be NP-hard. Here, we show that, if we
consider the KL divergence instead of the LS error, we can analytically derive
a closed form solution for the rank-1 tensor that minimizes the KL divergence
from a given positive tensor. Our key insight is to treat a positive tensor as
a probability distribution and formulate the process of rank-1 approximation as
a projection onto the set of rank-1 tensors. This enables us to solve rank-1
approximation by convex optimization. We empirically demonstrate that our
algorithm is an order of magnitude faster than the existing rank-1
approximation methods and gives better approximation of given tensors, which
supports our theoretical finding.
- Abstract(参考訳): テンソル分解は根本的に難しい問題です。
テンソル分解の最も単純な場合でさえも、最小二乗 (ls) 誤差の項におけるランク1近似はnpハードであることが知られている。
ここでは、LS誤差の代わりにKLの発散を考えると、与えられた正のテンソルからKLの発散を最小限に抑えるランク1テンソルに対する閉形式解を解析的に導出できることが示される。
我々の重要な洞察は、正のテンソルを確率分布として扱い、ランク1のテンソルの集合への射影としてランク1近似の過程を定式化することである。
これにより,階数1近似を凸最適化により解くことができる。
実験により,我々のアルゴリズムは既存のランク1近似法よりも桁違いに高速であることを示すとともに,理論的な発見を支援するテンソルの近似性を向上する。
関連論文リスト
- Efficiency of First-Order Methods for Low-Rank Tensor Recovery with the
Tensor Nuclear Norm Under Strict Complementarity [19.930021245647705]
テンソル核ノルムによって誘導される球上での制約反復に基づく低ランクテンソルの回収のための凸緩和について考察する。
厳密な相補性条件の下では、標準勾配法の収束率と点当たりのランタイムの両方が劇的に改善される。
論文 参考訳(メタデータ) (2023-08-03T10:31:22Z) - Min-Max Optimization Made Simple: Approximating the Proximal Point
Method via Contraction Maps [77.8999425439444]
本稿では,凸/凹凸 min-max 問題に対して,ほぼ最適収束率を許容する一階法を提案する。
我々の研究は、近点法の更新規則を精度良く近似できるという事実に基づいている。
論文 参考訳(メタデータ) (2023-01-10T12:18:47Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Landscape analysis of an improved power method for tensor decomposition [2.363388546004777]
本稿では,最近Subspace Power Methodで導入された対称テンソル分解の最適化式について考察する。
我々は、最大$tildeo(Dlfloor m r)$までの準グロバル保証と、ランダムテンソル成分までのグローバル保証を得る。
論文 参考訳(メタデータ) (2021-10-29T14:32:54Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Robust M-estimation-based Tensor Ring Completion: a Half-quadratic
Minimization Approach [14.048989759890475]
我々はM推定器を誤差統計量として用いるテンソル環完備化への頑健なアプローチを開発する。
truncatedの特異値分解と行列分解に基づくHQに基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-19T04:37:50Z) - Alternating linear scheme in a Bayesian framework for low-rank tensor
approximation [5.833272638548154]
ベイズ推論問題を解くことにより、与えられたテンソルの低ランク表現を見つける。
本稿では,テンソルトレイン方式で無音変換を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-21T10:15:30Z) - Subgroup-based Rank-1 Lattice Quasi-Monte Carlo [51.877197074344586]
グループ理論に基づく単純な閉形式ランク1格子構築法を提案する。
本手法は,ベンチマーク統合テスト問題とカーネル近似問題において,優れた近似性能を実現する。
論文 参考訳(メタデータ) (2020-10-29T03:42:30Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Tensor completion via nonconvex tensor ring rank minimization with
guaranteed convergence [16.11872681638052]
近年の研究では、テンソル環(TR)のランクはテンソル完備化において高い効果を示している。
最近提案されたTRランクは、特異値が等しくペナル化される重み付き和の中で構造を捉えることに基づいている。
本稿では,ロゼット型関数を非スムーズな緩和法として利用することを提案する。
論文 参考訳(メタデータ) (2020-05-14T03:13:17Z) - On Linear Stochastic Approximation: Fine-grained Polyak-Ruppert and
Non-Asymptotic Concentration [115.1954841020189]
The inequality and non-asymptotic properties of approximation procedure with Polyak-Ruppert averaging。
一定のステップサイズと無限大となる反復数を持つ平均的反復数に対する中心極限定理(CLT)を証明する。
論文 参考訳(メタデータ) (2020-04-09T17:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。