論文の概要: Overcomplete order-3 tensor decomposition, blind deconvolution and
Gaussian mixture models
- arxiv url: http://arxiv.org/abs/2007.08133v2
- Date: Sat, 20 Feb 2021 00:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:03:51.111389
- Title: Overcomplete order-3 tensor decomposition, blind deconvolution and
Gaussian mixture models
- Title(参考訳): 超完全順序-3テンソル分解、ブラインドデコンボリューションおよびガウス混合モデル
- Authors: Haolin Chen, Luis Rademacher
- Abstract要約: 我々は,ジェンリッヒのアルゴリズムに基づくテンソル分解の新しいアルゴリズムを提案し,新しいアルゴリズムのアイデアをブラインドデコンボリューションとガウス混合モデルに適用する。
我々の最初の貢献は、ある対称超完全位数-3テンソルを分解する単純かつ効率的なアルゴリズムであり、すなわち、$a_i$s が線型独立でないような $T = sum_i=1n a_i otimes a_i otimes a_i$ という形の3次元配列である。
第2の貢献は、テンソル分解アルゴリズムの上に構築され、ファミリーを拡大する。
- 参考スコア(独自算出の注目度): 1.7970523486905976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new algorithm for tensor decomposition, based on Jennrich's
algorithm, and apply our new algorithmic ideas to blind deconvolution and
Gaussian mixture models. Our first contribution is a simple and efficient
algorithm to decompose certain symmetric overcomplete order-3 tensors, that is,
three dimensional arrays of the form $T = \sum_{i=1}^n a_i \otimes a_i \otimes
a_i$ where the $a_i$s are not linearly independent.Our algorithm comes with a
detailed robustness analysis. Our second contribution builds on top of our
tensor decomposition algorithm to expand the family of Gaussian mixture models
whose parameters can be estimated efficiently. These ideas are also presented
in a more general framework of blind deconvolution that makes them applicable
to mixture models of identical but very general distributions, including all
centrally symmetric distributions with finite 6th moment.
- Abstract(参考訳): 我々は,ジェンリッヒのアルゴリズムに基づくテンソル分解のための新しいアルゴリズムを提案し,新しいアルゴリズムのアイデアをブラインドデコンボリューションとガウス混合モデルに適用する。
我々の最初の貢献は、ある対称超完全位数-3テンソルを分解する単純で効率的なアルゴリズムであり、すなわち、$T = \sum_{i=1}^n a_i \otimes a_i \otimes a_i$ ここでは$a_i$sは線形独立ではない。
第2の貢献は、パラメータを効率的に推定できるガウス混合モデルの族を拡張するために、テンソル分解アルゴリズムの上に構築されている。
これらのアイデアは、より一般的なブラインドデコンボリューションの枠組みで示され、それらは同一だが非常に一般的な分布の混合モデルに適用され、有限 6 番目のモーメントを持つすべての中心対称分布を含む。
関連論文リスト
- Learning general Gaussian mixtures with efficient score matching [16.06356123715737]
我々は、$d$次元で$k$ガウシアンの混合を学習する問題を研究する。
我々は、下層の混合成分について分離を前提としない。
我々は、ターゲット混合物から$dmathrmpoly(k/varepsilon)$サンプルを抽出し、サンプル-ポリノミカル時間で実行し、サンプリング器を構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-29T17:30:36Z) - Learning Mixtures of Gaussians Using Diffusion Models [9.118706387430883]
テレビエラーに対して$k$ Gaussiansの混合を学習するための新しいアルゴリズムを提案する。
我々のアプローチは解析的であり、拡散モデルの枠組みに依存している。
論文 参考訳(メタデータ) (2024-04-29T17:00:20Z) - ADMM-MM Algorithm for General Tensor Decomposition [7.0326155922512275]
提案アルゴリズムは3つの基本損失関数(ell$-loss, $ell$-loss, KL divergence)と様々な低ランクテンソル分解モデル(CP, Tucker, TT, TR)をサポートする。
提案したアルゴリズムにより広帯域のアプリケーションを解くことができ、プラグイン・アンド・プレイ方式で既存のテンソル分解モデルに容易に拡張できることを示す。
論文 参考訳(メタデータ) (2023-12-19T00:17:34Z) - Private estimation algorithms for stochastic block models and mixture
models [63.07482515700984]
効率的なプライベート推定アルゴリズムを設計するための一般的なツール。
最初の効率的な$(epsilon, delta)$-differentially private algorithm for both weak recovery and exact recovery。
論文 参考訳(メタデータ) (2023-01-11T09:12:28Z) - Scalable First-Order Bayesian Optimization via Structured Automatic
Differentiation [4.061135251278187]
広い範囲のカーネルが構造化行列を生じさせ、勾配観測のための正確な$mathcalO(n2d)$Matrix-vector multiplyとヘッセン観測のための$mathcalO(n2d2)$を可能にした。
提案手法は,ほぼすべての標準カーネルに適用され,ニューラルネットワーク,放射基底関数ネットワーク,スペクトル混合カーネルなどの複雑なカーネルに自動的に拡張される。
論文 参考訳(メタデータ) (2022-06-16T17:59:48Z) - Gaussian mixture model on nodes of Bayesian network given maximal
parental cliques [0.0]
ネットワークでガウス混合モデルを使う理由と方法を説明する。
そこで本研究では,混合モデルの最適化のための2重反復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-20T15:14:01Z) - Sparse Quadratic Optimisation over the Stiefel Manifold with Application
to Permutation Synchronisation [71.27989298860481]
二次目的関数を最大化するスティーフェル多様体上の行列を求める非最適化問題に対処する。
そこで本研究では,支配的固有空間行列を求めるための,単純かつ効果的なスパーシティプロモーティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-30T19:17:35Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z) - Optimal Iterative Sketching with the Subsampled Randomized Hadamard
Transform [64.90148466525754]
最小二乗問題に対する反復スケッチの性能について検討する。
本研究では、Haar行列とランダム化されたHadamard行列の収束速度が同一であることを示し、ランダムなプロジェクションを経時的に改善することを示した。
これらの手法は、ランダム化次元還元を用いた他のアルゴリズムにも適用することができる。
論文 参考訳(メタデータ) (2020-02-03T16:17:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。