論文の概要: From particle swarm optimization to consensus based optimization:
stochastic modeling and mean-field limit
- arxiv url: http://arxiv.org/abs/2012.05613v1
- Date: Thu, 10 Dec 2020 11:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:11:20.735317
- Title: From particle swarm optimization to consensus based optimization:
stochastic modeling and mean-field limit
- Title(参考訳): particle swarm optimizationからコンセンサスベース最適化へ:確率モデリングと平均場限界
- Authors: Sara Grassi, Lorenzo Pareschi
- Abstract要約: グローバル最適化問題を解決するためのPSOプロセスの微分方程式に基づく連続的な記述を検討する。
我々は、Vlasov-Fokker-Planck型方程式に基づく対応する平均場近似を大粒子制限で導出する。
我々は,最近導入されたコンセンサスに基づく最適化手法との相関関係を明らかにする,関連するマクロ流体力学方程式を計算した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we consider a continuous description based on stochastic
differential equations of the popular particle swarm optimization (PSO) process
for solving global optimization problems and derive in the large particle limit
the corresponding mean-field approximation based on Vlasov-Fokker-Planck-type
equations. The disadvantage of memory effects induced by the need to store the
local best position is overcome by the introduction of an additional
differential equation describing the evolution of the local best. A
regularization process for the global best permits to formally derive the
respective mean-field description. Subsequently, in the small inertia limit, we
compute the related macroscopic hydrodynamic equations that clarify the link
with the recently introduced consensus based optimization (CBO) methods.
Several numerical examples illustrate the mean field process, the small inertia
limit and the potential of this general class of global optimization methods.
- Abstract(参考訳): 本稿では,大域的最適化問題の解法として人気粒子群最適化法 (PSO) の確率微分方程式に基づいて連続的な記述を考察し, フラソフ-フォッカー-プランク型方程式に基づく対応する平均場近似を大粒子制限で導出する。
局所的最良位置を保存する必要性によって引き起こされる記憶効果の欠点は、局所的最良の進化を記述する追加の微分方程式の導入によって克服される。
グローバルベストの正規化プロセスは、各平均フィールド記述を正式に導出することを許可する。
その後,小慣性限界において,最近導入されたコンセンサスベース最適化 (cbo) 法との関係を明らかにするマクロ流体力学方程式を計算した。
いくつかの数値的な例は、平均場過程、小さな慣性限界、そしてこの大域最適化法の一般的なクラスの可能性を示している。
関連論文リスト
- Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z) - A Contraction Theory Approach to Optimization Algorithms from
Acceleration Flows [1.90365714903665]
私たちは、適切なODEを設計し、識別するための原則化された方法論を提供するために収縮理論を使用します。
本稿では, ODE の新しいシステム,すなわち Accelerated-Contracting-Nesterov フローを提案する。
注目すべきことに、この流れの単純明示的なオイラー離散化はネステロフ加速度法に対応する。
論文 参考訳(メタデータ) (2021-05-18T21:11:37Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Direct Optimal Control Approach to Laser-Driven Quantum Particle
Dynamics [77.34726150561087]
間接制御理論に対する頑健で柔軟な代替手段として, 直接最適制御を提案する。
この方法は、バイスタブルポテンシャルにおけるレーザー駆動のウェーブパレットダイナミクスの場合に説明される。
論文 参考訳(メタデータ) (2020-10-08T07:59:29Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Consensus-Based Optimization on Hypersurfaces: Well-Posedness and
Mean-Field Limit [7.998311072988401]
コンパクト超曲面上の非場関数の大域的最適化のための新しい微分モデルを提案する。
特に、合意に達したらすぐに、合意は消える。
論文 参考訳(メタデータ) (2020-01-31T18:33:08Z) - Consensus-Based Optimization on the Sphere: Convergence to Global
Minimizers and Machine Learning [7.998311072988401]
球面上の非函数の大域的最適化のための新しい倉本ビエク型モデルの実装について検討する。
本稿では,本論文で提案したアルゴリズムが寸法によく適合し,極めて多目的であることを示す数値実験を行った。
論文 参考訳(メタデータ) (2020-01-31T18:23:26Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。