論文の概要: Lyapunov Stability of Stochastic Vector Optimization: Theory and Numerical Implementation
- arxiv url: http://arxiv.org/abs/2603.04095v1
- Date: Wed, 04 Mar 2026 14:04:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.337623
- Title: Lyapunov Stability of Stochastic Vector Optimization: Theory and Numerical Implementation
- Title(参考訳): 確率ベクトル最適化のリアプノフ安定性:理論と数値的実装
- Authors: Thiago Santos, Sebastiao Xavier,
- Abstract要約: 我々は、ドリフトが共通の降下方向によって誘導される非拘束ベクトル最適化にドリフト拡散モデルを用いる。
提案アルゴリズムは,マルチオブジェクト最適化のためのオープンソースのPythonフレームワークとして実装されている。
目的数3から15のDTLZ2の実証結果は、一貫したトレードオフを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The use of stochastic differential equations in multi-objective optimization has been limited, in practice, by two persistent gaps: incomplete stability analyses and the absence of accessible implementations. We revisit a drift--diffusion model for unconstrained vector optimization in which the drift is induced by a common descent direction and the diffusion term preserves exploratory behavior. The main theoretical contribution is a self-contained Lyapunov analysis establishing global existence, pathwise uniqueness, and non-explosion under a dissipativity condition, together with positive recurrence under an additional coercivity assumption. We also derive an Euler--Maruyama discretization and implement the resulting iteration as a \emph{pymoo}-compatible algorithm -- \emph{pymoo} being an open-source Python framework for multi-objective optimization -- with an interactive \emph{PymooLab} front-end for reproducible experiments. Empirical results on DTLZ2 with objective counts from three to fifteen indicate a consistent trade-off: compared with established evolutionary baselines, the method is less competitive in low-dimensional regimes but remains a viable option under restricted evaluation budgets in higher-dimensional settings. Taken together, these observations suggest that stochastic drift--diffusion search occupies a mathematically tractable niche alongside population-based heuristics -- not as a replacement, but as an alternative whose favorable properties are amenable to rigorous analysis.
- Abstract(参考訳): 多目的最適化における確率微分方程式の使用は、実際には、不完全安定性解析とアクセシブル実装の欠如という2つの永続的なギャップによって制限されている。
本研究では,非拘束ベクトル最適化のためのドリフト拡散モデルを再検討し,ドリフトが共通の降下方向によって誘導され,拡散項が探索行動を保存する。
主な理論的貢献は、大域的存在、経路的一意性、非露出性を確立する自己完結型リャプノフ解析であり、さらに余剰余効性仮定の下では正の再発を伴う。
また、Euler-Maruyamaの離散化を導出し、再現可能な実験のための対話型 \emph{PymooLab} フロントエンドを備えた、多目的最適化のためのオープンソースのPythonフレームワークである \emph{pymoo} 互換のアルゴリズム -- \emph{pymoo} として実装した。
3から15までの目標数を持つDTLZ2の実証的な結果は、確立された進化的ベースラインと比較して、低次元のレシエーションでは競争力は低いが、高次元環境では制限された評価予算の下では実行可能な選択肢であり続けている、という一貫したトレードオフを示している。
これらの観測から、確率的ドリフト拡散探索は、人口ベースのヒューリスティックスと並んで数学的に計算可能なニッチを占めており、代替としてではなく、厳密な分析に有利な性質を持つ代替手段であることを示している。
関連論文リスト
- Variational Entropic Optimal Transport [67.76725267984578]
本稿では,ドメイン翻訳問題に対する変分エントロピー最適輸送(VarEOT)を提案する。
VarEOTは、補助正の正規化子上のトラクタブルな一般化として、log-partition $log mathbbE[exp(cdot)$の正確な変分再構成に基づいている。
合成データと画像と画像の変換に関する実験は、競争力のあるか、あるいはより良い翻訳品質を示す。
論文 参考訳(メタデータ) (2026-02-02T15:48:44Z) - Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - Stochastic Optimization with Optimal Importance Sampling [49.484190237840714]
本稿では,両者の時間的分離を必要とせずに,意思決定とIS分布を共同で更新する反復型アルゴリズムを提案する。
本手法は,IS分布系に対する目的的,軽度な仮定の凸性の下で,最小の変数分散を達成し,大域収束を保証する。
論文 参考訳(メタデータ) (2025-04-04T16:10:18Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - A Stochastic Newton Algorithm for Distributed Convex Optimization [62.20732134991661]
均質な分散凸最適化のためのNewtonアルゴリズムを解析し、各マシンが同じ人口目標の勾配を計算する。
提案手法は,既存の手法と比較して,性能を損なうことなく,必要な通信ラウンドの数,頻度を低減できることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:51:10Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Distributed Stochastic Nonconvex Optimization and Learning based on
Successive Convex Approximation [26.11677569331688]
本稿では,ネットワーク内のエージェントの総和の分散アルゴリズム最小化のための新しいフレームワークを提案する。
提案手法は分散ニューラルネットワークに適用可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T15:36:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。