論文の概要: Consistency issues in Gaussian Mixture Models reduction algorithms
- arxiv url: http://arxiv.org/abs/2104.12586v1
- Date: Mon, 26 Apr 2021 13:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:47:29.950041
- Title: Consistency issues in Gaussian Mixture Models reduction algorithms
- Title(参考訳): ガウス混合モデル削減アルゴリズムの一貫性問題
- Authors: A. D'Ortenzio and C. Manes
- Abstract要約: 本稿では, 異種度尺度の選択の重要性と, 選択した測度に対する還元アルゴリズムの全ステップの整合性の問題について論じる。
多くの近似GMRアルゴリズムは過去30年間に提案されているが、いずれも最適性を保証するものではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many contexts Gaussian Mixtures (GM) are used to approximate probability
distributions, possibly time-varying. In some applications the number of GM
components exponentially increases over time, and reduction procedures are
required to keep them reasonably limited. The GM reduction (GMR) problem can be
formulated by choosing different measures of the dissimilarity of GMs before
and after reduction, like the Kullback-Leibler Divergence (KLD) and the
Integral Squared Error (ISE). Since in no case the solution is obtained in
closed form, many approximate GMR algorithms have been proposed in the past
three decades, although none of them provides optimality guarantees. In this
work we discuss the importance of the choice of the dissimilarity measure and
the issue of consistency of all steps of a reduction algorithm with the chosen
measure. Indeed, most of the existing GMR algorithms are composed by several
steps which are not consistent with a unique measure, and for this reason may
produce reduced GMs far from optimality. In particular, the use of the KLD, of
the ISE and normalized ISE is discussed and compared in this perspective.
- Abstract(参考訳): 多くの文脈において、ガウス混合(gm)は確率分布、おそらくは時変を近似するために用いられる。
一部のアプリケーションでは、GMコンポーネントの数は時間とともに指数関数的に増加し、それらを合理的に制限し続けるために削減手順が必要である。
GMリダクション(GMR)問題は、KLD(Kulback-Leibler Divergence)やISE(Integral Squared Error)のような、削減前後のGMの相似性の異なる尺度を選択することで定式化することができる。
解がクローズドな形で得られないため、過去30年間に多くの近似GMRアルゴリズムが提案されてきたが、いずれも最適性を保証するものではない。
本研究では, 異質性尺度の選択の重要性と, 削減アルゴリズムのすべてのステップと選択した尺度との整合性の問題について論じる。
実際、既存のGMRアルゴリズムのほとんどは、一意の測度と一致しないいくつかのステップで構成されており、そのためGMを最適性からはるかに減らすことができる。
特に、この観点から、 ise と正規化された ise の kld の使用について論じ、比較する。
関連論文リスト
- Algorithme EM r\'egularis\'e [0.0]
本稿では,より少ないサンプルサイズに対応するために,事前知識を効率的に活用するEMアルゴリズムの正規化バージョンを提案する。
実データを用いた実験では,クラスタリングのための提案アルゴリズムの性能が向上した。
論文 参考訳(メタデータ) (2023-07-04T23:19:25Z) - A New Probabilistic Distance Metric With Application In Gaussian Mixture
Reduction [25.07521362926412]
本稿では,2つの連続確率密度関数を比較するための新しい距離指標を提案する。
この計量の主な利点は、ガウス分布の混合に対して解析的で閉形式表現を提供できることである。
論文 参考訳(メタデータ) (2023-06-12T17:50:09Z) - Regularized EM algorithm [9.367612782346205]
本稿では,従来の知識を効率的に活用し,LSSの状況に対処できる,GMM-sの正規化EMアルゴリズムを提案する。
コンバージェンスホールドの理論的保証は、構造化共分散行列モデルや低サンプル設定のEMアルゴリズムの性能向上につながることを示す。
論文 参考訳(メタデータ) (2023-03-27T08:32:20Z) - Variance-Dependent Regret Bounds for Linear Bandits and Reinforcement
Learning: Adaptivity and Computational Efficiency [90.40062452292091]
本稿では,不整合雑音を持つ線形帯域に対する計算効率のよい最初のアルゴリズムを提案する。
我々のアルゴリズムは未知のノイズの分散に適応し、$tildeO(d sqrtsum_k = 1K sigma_k2 + d)$ regretを達成する。
また、強化学習において、線形混合マルコフ決定過程(MDP)に対する分散適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T00:17:24Z) - Sharp Variance-Dependent Bounds in Reinforcement Learning: Best of Both
Worlds in Stochastic and Deterministic Environments [48.96971760679639]
マルコフ決定過程(MDP)の分散依存的後悔境界について検討する。
環境の微細な分散特性を特徴付けるための2つの新しい環境規範を提案する。
モデルに基づく手法では、MVPアルゴリズムの変種を設計する。
特に、この境界は極小かつ決定論的 MDP に対して同時に最適である。
論文 参考訳(メタデータ) (2023-01-31T06:54:06Z) - An Application of a Multivariate Estimation of Distribution Algorithm to
Cancer Chemotherapy [59.40521061783166]
癌に対する化学療法治療は、多数の相互作用する変数と制約を持つ複雑な最適化問題である。
より洗練されたアルゴリズムは、このような複雑な問題に対してより良いパフォーマンスをもたらすことが示される。
我々は、この問題における多数の相互作用によって、より洗練されたアルゴリズムが妨げられていることが原因であると仮定する。
論文 参考訳(メタデータ) (2022-05-17T15:28:46Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Non Asymptotic Bounds for Optimization via Online Multiplicative
Stochastic Gradient Descent [0.0]
グラディエントDescent(SGD)の勾配雑音は,その特性において重要な役割を担っていると考えられている。
ミニバッチによるSGDの平均と共分散構造を持つ雑音クラスは、同様の特性を持つことを示す。
また,M-SGDアルゴリズムの強い凸状態における収束の限界を定めている。
論文 参考訳(メタデータ) (2021-12-14T02:25:43Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Thompson Sampling Algorithms for Mean-Variance Bandits [97.43678751629189]
我々は平均分散MABのためのトンプソンサンプリング型アルゴリズムを開発した。
我々はまた、ガウシアンとベルヌーイの盗賊に対する包括的後悔の分析も提供する。
我々のアルゴリズムは、全てのリスク許容度に対して既存のLCBベースのアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-02-01T15:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。