論文の概要: Gaussian Mixture Reduction with Composite Transportation Divergence
- arxiv url: http://arxiv.org/abs/2002.08410v3
- Date: Sat, 17 Dec 2022 10:21:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:16:51.416287
- Title: Gaussian Mixture Reduction with Composite Transportation Divergence
- Title(参考訳): 複合輸送ダイバージェンスを用いたガウス混合低減
- Authors: Qiong Zhang, Archer Gong Zhang, Jiahua Chen
- Abstract要約: 最適化に基づく新しいガウス混合還元法を提案する。
既存のクラスタリングベースの手法が私たちの特別なケースであることを示し、最適化ベースの手法とクラスタリングベースの手法のギャップを埋める。
- 参考スコア(独自算出の注目度): 18.327924707478346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian mixtures can approximate almost any smooth density function and are
used to simplify downstream inference tasks. As such, it is widely used in
applications in density estimation, belief propagation, and Bayesian filtering.
In these applications, a finite Gaussian mixture provides an initial
approximation to density functions that are updated recursively. A challenge in
these recursions is that the order of the Gaussian mixture increases
exponentially, and the inference quickly becomes intractable. To overcome the
difficulty, the Gaussian mixture reduction, which approximates a high order
Gaussian mixture by one with a lower order, can be used. Existing methods such
as the clustering-based approaches are renowned for their satisfactory
performance and computationally efficiency. However, they have unknown
convergence and optimal targets. We propose a novel optimization-based Gaussian
mixture reduction method. We develop a majorization-minimization algorithm for
its numerical computation and establish its theoretical convergence under
general conditions. We show many existing clustering-based methods are special
cases of ours, thus bridging the gap between optimization-based and
clustering-based methods. The unified framework allows users to choose the most
suitable cost function to achieve superior performance in their specific
application. We demonstrate the efficiency and effectiveness of the proposed
method through extensive empirical experiments.
- Abstract(参考訳): ガウス混合はほとんどの滑らかな密度関数を近似することができ、下流推論タスクを単純化するために用いられる。
そのため、密度推定、信念伝播、ベイズフィルタの用途で広く用いられている。
これらの応用において、有限ガウス混合は再帰的に更新される密度関数の初期近似を与える。
これらの再帰の課題は、ガウス混合の順序が指数関数的に増加し、推論がすぐに難解になることである。
この難しさを克服するために、高次ガウス混合を低次で近似したガウス混合還元を用いることができる。
クラスタリングベースのアプローチのような既存の手法は、その優れた性能と計算効率で有名である。
しかし、収束性や最適目標が不明である。
最適化に基づくガウス混合還元法を提案する。
数値計算のためのメジャー化最小化アルゴリズムを開発し,その理論収束を一般条件下で確立する。
既存のクラスタリングベース手法の多くが特別な場合であり,最適化ベース手法とクラスタリングベース手法のギャップを橋渡ししている。
この統一フレームワークにより、ユーザーは特定のアプリケーションで優れたパフォーマンスを達成するのに最適なコスト関数を選択できる。
提案手法の効率と有効性を広範な実験により実証する。
関連論文リスト
- Stochastic interior-point methods for smooth conic optimization with applications [3.294420397461204]
一般円錐最適化のためのインテリアポイント法を4つの新しいSIPM変種とともに導入する。
未開発の前提の下では,提案したSIPMのグローバル収束率を確立する。
頑健な線形回帰、マルチタスク関係学習、クラスタリングデータストリームの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-12-17T15:06:44Z) - Vector Optimization with Gaussian Process Bandits [7.049738935364297]
複数の目的を同時に考慮しなければならない学習問題は、工学、薬物設計、環境管理など、様々な分野においてしばしば発生する。
複数のブラックボックスの目的関数を扱う従来の方法は、目的の選好を取り入れ、それに応じて解空間を探索することに制限がある。
ガウス過程の帯域幅を用いてブラックボックスベクトル最適化を行う適応除去アルゴリズムであるガウス過程を用いたベクトル最適化(VOGP)を提案する。
論文 参考訳(メタデータ) (2024-12-03T14:47:46Z) - Posterior Contraction Rates for Mat\'ern Gaussian Processes on
Riemannian Manifolds [51.68005047958965]
我々は,本質的なガウス過程が実際により優れた性能を発揮することを示す。
我々の研究は、データ効率の異なるレベルを区別するために、よりきめ細かい分析が必要であることを示している。
論文 参考訳(メタデータ) (2023-09-19T20:30:58Z) - A New Probabilistic Distance Metric With Application In Gaussian Mixture
Reduction [25.07521362926412]
本稿では,2つの連続確率密度関数を比較するための新しい距離指標を提案する。
この計量の主な利点は、ガウス分布の混合に対して解析的で閉形式表現を提供できることである。
論文 参考訳(メタデータ) (2023-06-12T17:50:09Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - A fast and efficient Modal EM algorithm for Gaussian mixtures [0.0]
クラスタリングへのモーダルアプローチでは、クラスタは基礎となる確率密度関数の局所的な最大値として定義される。
モーダルEMアルゴリズムは、任意の密度関数の局所的な最大値を特定するイテレーティブな手順である。
論文 参考訳(メタデータ) (2020-02-10T08:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。