論文の概要: Provable Online CP/PARAFAC Decomposition of a Structured Tensor via
Dictionary Learning
- arxiv url: http://arxiv.org/abs/2006.16442v1
- Date: Tue, 30 Jun 2020 00:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 04:35:28.001385
- Title: Provable Online CP/PARAFAC Decomposition of a Structured Tensor via
Dictionary Learning
- Title(参考訳): 辞書学習による構造化テンソルのオンラインCP/PARAFAC分解
- Authors: Sirisha Rambhatla, Xingguo Li, Jarvis Haupt
- Abstract要約: 構造化3変量テンソルをその構成的ポリアディック(CP)因子に分解する問題を考察する。
我々は、構造化テンソル因子分解のための証明可能なアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 18.464203215845373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of factorizing a structured 3-way tensor into its
constituent Canonical Polyadic (CP) factors. This decomposition, which can be
viewed as a generalization of singular value decomposition (SVD) for tensors,
reveals how the tensor dimensions (features) interact with each other. However,
since the factors are a priori unknown, the corresponding optimization problems
are inherently non-convex. The existing guaranteed algorithms which handle this
non-convexity incur an irreducible error (bias), and only apply to cases where
all factors have the same structure. To this end, we develop a provable
algorithm for online structured tensor factorization, wherein one of the
factors obeys some incoherence conditions, and the others are sparse.
Specifically we show that, under some relatively mild conditions on
initialization, rank, and sparsity, our algorithm recovers the factors exactly
(up to scaling and permutation) at a linear rate. Complementary to our
theoretical results, our synthetic and real-world data evaluations showcase
superior performance compared to related techniques. Moreover, its scalability
and ability to learn on-the-fly makes it suitable for real-world tasks.
- Abstract(参考訳): 構造付き3方向テンソルをその構成正準ポリアディック(CP)因子に分解する問題を考察する。
この分解はテンソルに対する特異値分解(SVD)の一般化と見なすことができ、テンソル次元(函数)がどのように相互作用するかを明らかにする。
しかし、これらの因子は未定であるため、対応する最適化問題は本質的に非凸である。
この非凸性を扱う既存の保証されたアルゴリズムは、既約エラー(bia)を引き起こし、全ての因子が同じ構造を持つ場合にのみ適用される。
この目的のために、オンライン構造的テンソル因子化のための証明可能なアルゴリズムを開発し、その1つの要因がいくつかの不整合条件に従属し、他の要素は疎結合である。
具体的には,初期化,ランク,スパーシティに関する比較的穏やかな条件下において,アルゴリズムが(スケールと置換までの)因子を線形速度で正確に回復することを示す。
我々の理論結果と相まって,我々の合成および実世界のデータ評価は,関連する技術と比較して優れた性能を示す。
さらに、オンザフライで学習するスケーラビリティと能力は、現実世界のタスクに適しています。
関連論文リスト
- Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Fast and Provable Tensor Robust Principal Component Analysis via Scaled
Gradient Descent [30.299284742925852]
本稿では、テンソルロバスト主成分分析(RPCA)に取り組む。
希少な腐敗によって汚染された観測から低ランクのテンソルを回収することを目的としている。
提案アルゴリズムは, 最先端行列やテンソルRPCAアルゴリズムよりも, より優れた, よりスケーラブルな性能を実現する。
論文 参考訳(メタデータ) (2022-06-18T04:01:32Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Nonparametric Sparse Tensor Factorization with Hierarchical Gamma
Processes [16.79618682556073]
疎観測テンソルに対する非パラメトリック分解法を提案する。
階層的ガンマ過程とポアソンランダム測度を用いてテンソル値のプロセスを構築する。
効率的な推論のために、有限標本分割、密度変換、ランダム特徴量に対するディリクレ過程特性を用いる。
論文 参考訳(メタデータ) (2021-10-19T16:17:26Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Online nonnegative CP-dictionary learning for Markovian data [8.490619842547739]
CANDECOMP/PARAFACベースを一般的な制約下でテンソル値データの所定のストリームから学習する新しいアルゴリズムを提案する。
提案アルゴリズムは,データテンソルの列が基礎となるマルコフ連鎖によって生成されるという仮説の下で,目的関数の定常点の集合にほぼ確実に収束することを示す。
論文 参考訳(メタデータ) (2020-09-16T11:41:01Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z) - A Unified Framework for Coupled Tensor Completion [42.19293115131073]
結合テンソル分解は、潜在結合因子に由来する事前知識を組み込むことで、結合データ構造を明らかにする。
TRは強力な表現能力を持ち、いくつかの多次元データ処理アプリケーションで成功している。
提案手法は, 合成データに関する数値実験で検証され, 実世界のデータに対する実験結果は, 回収精度の観点から, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-09T02:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。