論文の概要: Convergence of Expectation-Maximization Algorithm with Mixed-Integer
Optimization
- arxiv url: http://arxiv.org/abs/2401.17763v1
- Date: Wed, 31 Jan 2024 11:42:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 14:53:20.471543
- Title: Convergence of Expectation-Maximization Algorithm with Mixed-Integer
Optimization
- Title(参考訳): 混合整数最適化による期待最大化アルゴリズムの収束
- Authors: Geethu Joseph
- Abstract要約: 本稿では,特定の種類のEMアルゴリズムの収束を保証する一連の条件を紹介する。
本研究では,混合整数非線形最適化問題の解法として,反復アルゴリズムの新しい解析手法を提案する。
- 参考スコア(独自算出の注目度): 5.319361976450982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The convergence of expectation-maximization (EM)-based algorithms typically
requires continuity of the likelihood function with respect to all the unknown
parameters (optimization variables). The requirement is not met when parameters
comprise both discrete and continuous variables, making the convergence
analysis nontrivial. This paper introduces a set of conditions that ensure the
convergence of a specific class of EM algorithms that estimate a mixture of
discrete and continuous parameters. Our results offer a new analysis technique
for iterative algorithms that solve mixed-integer non-linear optimization
problems. As a concrete example, we prove the convergence of the EM-based
sparse Bayesian learning algorithm in [1] that estimates the state of a linear
dynamical system with jointly sparse inputs and bursty missing observations.
Our results establish that the algorithm in [1] converges to the set of
stationary points of the maximum likelihood cost with respect to the continuous
optimization variables.
- Abstract(参考訳): 期待最大化(EM)に基づくアルゴリズムの収束は、通常、未知のパラメータ(最適化変数)すべてに対して確率関数の連続性を必要とする。
この要件は、パラメータが離散変数と連続変数の両方を構成するときに満たされず、収束解析は非自明である。
本稿では、離散パラメータと連続パラメータの混合を推定する特定の種類のEMアルゴリズムの収束を保証する一連の条件を紹介する。
本研究では,混合整数非線形最適化問題を解く反復アルゴリズムの新しい解析手法を提案する。
具体的な例として、emベースのスパースベイズ学習アルゴリズムを[1]で収束させることを証明し、線形力学系の状態を、互いにスパース入力とバースト的欠落観測で推定する。
その結果,[1]のアルゴリズムは,連続最適化変数に対する最大許容コストの定常点の集合に収束することがわかった。
関連論文リスト
- On the connections between optimization algorithms, Lyapunov functions, and differential equations: theory and insights [0.0]
Fazylabらによって導入されたフレームワークを再検討し、離散的かつ連続的な時間で最適化アルゴリズムのためのLyapunov関数を構築する。
滑らかで強凸な目的関数に対して、そのような構成に必要な要求を緩和する。
文献で利用できるものよりも良い収束率を証明します。
論文 参考訳(メタデータ) (2023-05-15T14:03:16Z) - n-Step Temporal Difference Learning with Optimal n [5.945710235932345]
我々は,n段階時間差(TD)学習におけるnの最適値を求める問題を考察する。
最適化問題に対する目的関数は平均根平均二乗誤差(RMSE)である。
論文 参考訳(メタデータ) (2023-03-13T12:44:32Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - An Algebraically Converging Stochastic Gradient Descent Algorithm for
Global Optimization [14.336473214524663]
アルゴリズムの主要な構成要素は、目的関数の値に基づくランダム性である。
アルゴリズムの収束を代数学で証明し、パラメータ空間でチューニングする。
アルゴリズムの効率性とロバスト性を示す数値的な例をいくつか提示する。
論文 参考訳(メタデータ) (2022-04-12T16:27:49Z) - Sharp global convergence guarantees for iterative nonconvex
optimization: A Gaussian process perspective [30.524043513721168]
回帰モデルのクラスに対する反復アルゴリズムの収束を解析するための一般的なレシピを開発する。
決定論的には、有限サンプル状態におけるアルゴリズムの収束率と最終的なエラーフロアの両方を正確にキャプチャする。
我々は、更新の交互化に基づく高次アルゴリズムと、下位次数に基づく一次アルゴリズムの両方に対して、鋭い収束率を示す。
論文 参考訳(メタデータ) (2021-09-20T21:48:19Z) - The Connection between Discrete- and Continuous-Time Descriptions of
Gaussian Continuous Processes [60.35125735474386]
我々は、一貫した推定子をもたらす離散化が粗粒化下での不変性を持つことを示す。
この結果は、導関数再構成のための微分スキームと局所時間推論アプローチの組み合わせが、2次または高次微分方程式の時系列解析に役立たない理由を説明する。
論文 参考訳(メタデータ) (2021-01-16T17:11:02Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - A Dynamical Systems Approach for Convergence of the Bayesian EM
Algorithm [59.99439951055238]
我々は、(離散時間)リアプノフ安定性理論が、必ずしも勾配ベースではない最適化アルゴリズムの分析(および潜在的な設計)において、いかに強力なツールとして役立つかを示す。
本稿では,不完全データベイズフレームワークにおけるパラメータ推定を,MAP-EM (maximum a reari expectation-maximization) と呼ばれる一般的な最適化アルゴリズムを用いて行うことに着目したML問題について述べる。
高速収束(線形あるいは二次的)が達成され,S&Cアプローチを使わずに発表することが困難であった可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-23T01:34:18Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Optimization with Momentum: Dynamical, Control-Theoretic, and Symplectic
Perspectives [97.16266088683061]
この論文は、運動量に基づく最適化アルゴリズムにおいてシンプレクティックな離散化スキームが重要であることを厳格に証明している。
これは加速収束を示すアルゴリズムの特性を提供する。
論文 参考訳(メタデータ) (2020-02-28T00:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。