論文の概要: Sinkhorn EM: An Expectation-Maximization algorithm based on entropic
optimal transport
- arxiv url: http://arxiv.org/abs/2006.16548v1
- Date: Tue, 30 Jun 2020 06:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:10:38.613741
- Title: Sinkhorn EM: An Expectation-Maximization algorithm based on entropic
optimal transport
- Title(参考訳): Sinkhorn EM: エントロピー最適輸送に基づく期待最大化アルゴリズム
- Authors: Gonzalo Mena, Amin Nejatbakhsh, Erdem Varol and Jonathan Niles-Weed
- Abstract要約: シンクホーンEM(Sinkhorn EM)は、エントロピー最適輸送に基づく混合物の予測(EM)アルゴリズムの変種である。
理論上, 実験上, sEMはEMより優れた挙動を示す。
- 参考スコア(独自算出の注目度): 11.374487003189467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study Sinkhorn EM (sEM), a variant of the expectation maximization (EM)
algorithm for mixtures based on entropic optimal transport. sEM differs from
the classic EM algorithm in the way responsibilities are computed during the
expectation step: rather than assign data points to clusters independently, sEM
uses optimal transport to compute responsibilities by incorporating prior
information about mixing weights. Like EM, sEM has a natural interpretation as
a coordinate ascent procedure, which iteratively constructs and optimizes a
lower bound on the log-likelihood. However, we show theoretically and
empirically that sEM has better behavior than EM: it possesses better global
convergence guarantees and is less prone to getting stuck in bad local optima.
We complement these findings with experiments on simulated data as well as in
an inference task involving C. elegans neurons and show that sEM learns cell
labels significantly better than other approaches.
- Abstract(参考訳): エントロピー最適輸送に基づく混合物に対する期待最大化(EM)アルゴリズムの変種であるシンクホーンEM(sEM)について検討した。
sEMは、クラスタにデータポイントを個別に割り当てる代わりに、重量の混合に関する事前情報を統合することで責任を計算するために最適なトランスポートを使用する。
EMと同様に、sEM は座標の昇華手順として自然な解釈を持ち、ログのような下界を反復的に構築し最適化する。
しかし、理論上、実証的に、sEMはEMよりも優れた振舞いを持ち、より優れたグローバル収束保証を持ち、悪い局所最適条件で立ち往生する傾向が低いことを示している。
これらの結果は、シミュレーションデータおよびC. elegansニューロンを含む推論タスクの実験で補完し、sEMが細胞ラベルを他のアプローチよりもかなり良く学習していることを示す。
関連論文リスト
- Learning Mixtures of Experts with EM [28.48469221248906]
エキスパートの混合(MoE)は、入力空間を含む機械学習モデルであり、各パーティションでトレーニングされた別の"エキスパート"モデルである。
本稿では,MoEモデルのトレーニングにおける期待最大化(EM)アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2024-11-09T03:44:09Z) - Network EM Algorithm for Gaussian Mixture Model in Decentralized Federated Learning [1.4549461207028445]
ガウス混合モデルに対する様々なネットワーク期待-最大化(EM)アルゴリズムについて検討する。
モーメント・ネットワークEM (MNEM) アルゴリズムを導入し, モーメント・パラメータを用いて現在の推定値と過去の推定値の両方からの情報を組み合わせる。
また,部分ラベル付きデータを利用する半教師付きMNEMアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-11-08T14:25:46Z) - Big Learning Expectation Maximization [13.709094150105566]
本稿では,共同,辺縁,直交の辺縁マッチングを同時に行うEMアップグレードであるBig Learning EM(BigLearn-EM)を提案する。
実験により,BigLearn-EMは高い確率で最適な結果を得ることができることを示す。
論文 参考訳(メタデータ) (2023-12-19T08:07:41Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Optimal Algorithms for the Inhomogeneous Spiked Wigner Model [89.1371983413931]
不均一な問題に対する近似メッセージパッシングアルゴリズム(AMP)を導出する。
特に,情報理論の閾値よりも大きい信号と雑音の比を必要とする既知のアルゴリズムが,ランダムよりも優れた処理を行うための統計的・計算的ギャップの存在を同定する。
論文 参考訳(メタデータ) (2023-02-13T19:57:17Z) - Sampling with Mollified Interaction Energy Descent [57.00583139477843]
モーフィファイド相互作用エネルギー降下(MIED)と呼ばれる新しい最適化に基づくサンプリング手法を提案する。
MIEDは、モル化相互作用エネルギー(MIE)と呼ばれる確率測度に関する新しいクラスのエネルギーを最小化する
我々は,制約のないサンプリング問題に対して,我々のアルゴリズムがSVGDのような既存の粒子ベースアルゴリズムと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-10-24T16:54:18Z) - Improvements to Supervised EM Learning of Shared Kernel Models by
Feature Space Partitioning [0.0]
本稿では、EMトレーニングアルゴリズムの導出における厳密さの欠如と、その手法の計算複雑性について述べる。
まず、ガウス共有カーネルモデル PRBF 分類器に対して、EM の詳細な導出を行う。
結果のSKEMアルゴリズムの複雑さを軽減するために、特徴空間を変数の非重複部分集合の$R$に分割する。
論文 参考訳(メタデータ) (2022-05-31T09:18:58Z) - Beyond EM Algorithm on Over-specified Two-Component Location-Scale
Gaussian Mixtures [29.26015093627193]
負の対数様関数の曲率を効率的に探索するために,指数位置更新法(ELU)アルゴリズムを開発した。
ELUアルゴリズムは、対数的な反復数の後、モデルの最終的な統計的半径に収束することを示した。
論文 参考訳(メタデータ) (2022-05-23T06:49:55Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。