論文の概要: Mixtures Closest to a Given Measure: A Semidefinite Programming Approach
- arxiv url: http://arxiv.org/abs/2509.22879v1
- Date: Fri, 26 Sep 2025 19:51:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.922728
- Title: Mixtures Closest to a Given Measure: A Semidefinite Programming Approach
- Title(参考訳): 与えられた尺度に最も近い混合:半確定的プログラミングアプローチ
- Authors: Srećko Đurašinović, Jean-Bernard Lasserre, Victor Magron,
- Abstract要約: 対象測度を有限個のモーメントでしか利用できない問題について検討する。
既存の多くのアプローチとは異なり、パラメータ集合は有限ではないと仮定される。
クラスタリングには,スタンドアローンのメソッドとして,あるいは前処理のステップとして,フレームワークが機能するアプリケーションを提案する。
- 参考スコア(独自算出の注目度): 1.7969777786551424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixture models, such as Gaussian mixture models, are widely used in machine learning to represent complex data distributions. A key challenge, especially in high-dimensional settings, is to determine the mixture order and estimate the mixture parameters. We study the problem of approximating a target measure, available only through finitely many of its moments, by a mixture of distributions from a parametric family (e.g., Gaussian, exponential, Poisson), with approximation quality measured by the 2-Wasserstein or the total variation distance. Unlike many existing approaches, the parameter set is not assumed to be finite; it is modeled as a compact basic semi-algebraic set. We introduce a hierarchy of semidefinite relaxations with asymptotic convergence to the desired optimal value. In addition, when a certain rank condition is satisfied, the convergence is even finite and recovery of an optimal mixing measure is obtained. We also present an application to clustering, where our framework serves either as a stand-alone method or as a preprocessing step that yields both the number of clusters and strong initial parameter estimates, thereby accelerating convergence of standard (local) clustering algorithms.
- Abstract(参考訳): ガウス混合モデルのような混合モデルは、複雑なデータ分布を表現するために機械学習で広く使われている。
特に高次元設定において重要な課題は、混合順序を決定し、混合パラメータを推定することである。
本研究では、パラメトリック族(例えば、ガウス、指数関数、ポアソン)からの分布と、2-ワッサーシュタインまたは全変分距離によって測定された近似品質との混合により、対象測度を有限個のモーメントでのみ利用できる問題を研究する。
既存の多くのアプローチとは異なり、パラメータ集合は有限ではなく、コンパクトな半代数集合としてモデル化される。
所望の最適値に漸近収束を伴う半定緩和の階層を導入する。
また、一定のランク条件が満たされると収束が有限となり、最適な混合手段の回復が得られる。
また、クラスタリングへのアプリケーションとして、我々のフレームワークはスタンドアローンの手法か、クラスタ数と強力な初期パラメータ推定の両方を出力する前処理ステップとして機能し、標準(ローカル)クラスタリングアルゴリズムの収束を加速する。
関連論文リスト
- Summarizing Bayesian Nonparametric Mixture Posterior -- Sliced Optimal Transport Metrics for Gaussian Mixtures [10.694077392690447]
混合モデルの後方推論を要約する既存の方法は、クラスタリングのための暗黙のランダムパーティションの点推定を同定することに焦点を当てている。
本研究では,非パラメトリックベイズ混合モデルにおける後部推論を要約し,混合度(または混合度)を推定対象として優先順位付けする手法を提案する。
論文 参考訳(メタデータ) (2024-11-22T02:15:38Z) - Robust scalable initialization for Bayesian variational inference with
multi-modal Laplace approximations [0.0]
フル共分散構造を持つ変分混合は、パラメータ数による変動パラメータによる二次的な成長に苦しむ。
本稿では,変分推論のウォームスタートに使用できる初期ガウスモデル近似を構築する方法を提案する。
論文 参考訳(メタデータ) (2023-07-12T19:30:04Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Maximum Entropy Reinforcement Learning with Mixture Policies [54.291331971813364]
MaxEntアルゴリズムを用いて混合エントロピーのトラクタブル近似を構築する。
我々は、それが限界エントロピーの合計と密接に関連していることを示しています。
我々は, 混合ポリシーケースに対するsoft actor-critic (sac) のアルゴリズム的変種を導出し, 一連の連続制御タスクで評価する。
論文 参考訳(メタデータ) (2021-03-18T11:23:39Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z) - Distributed, partially collapsed MCMC for Bayesian Nonparametrics [68.5279360794418]
ディリクレ法やベータ・ベルヌーリ法のようなモデルでよく用いられる完全無作為測度は独立な部分測度に分解可能であるという事実を利用する。
この分解を用いて、潜在測度を、インスタンス化された成分のみを含む有限測度と、他のすべての成分を含む無限測度に分割する。
得られたハイブリッドアルゴリズムは、収束保証を犠牲にすることなくスケーラブルな推論を可能にすることができる。
論文 参考訳(メタデータ) (2020-01-15T23:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。