論文の概要: An Evolutionary Algorithm with Probabilistic Annealing for Large-scale Sparse Multi-objective Optimization
- arxiv url: http://arxiv.org/abs/2603.11874v1
- Date: Thu, 12 Mar 2026 12:48:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.079687
- Title: An Evolutionary Algorithm with Probabilistic Annealing for Large-scale Sparse Multi-objective Optimization
- Title(参考訳): 大規模スパース多目的最適化のための確率的アニーリングを用いた進化的アルゴリズム
- Authors: Shuai Shao, Yuhao Sun, Xing Chen, Ye Tian, Guan Wang, Jin Li,
- Abstract要約: 大規模スパース多目的最適化問題(LSMOP)は、現実世界のアプリケーションで広く用いられている。
提案アルゴリズムは探索とエクスプロイトの動的平衡を実現する。
ベンチマーク問題と実世界の応用に関する実験結果は,提案アルゴリズムが最先端の進化的アルゴリズムより優れていることを示す。
- 参考スコア(独自算出の注目度): 21.49421845647136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale sparse multi-objective optimization problems (LSMOPs) are prevalent in real-world applications, where optimal solutions typically contain only a few nonzero variables, such as in adversarial attacks, critical node detection, and sparse signal reconstruction. Since the function evaluation of LSMOPs often relies on large-scale datasets involving a large number of decision variables, the search space becomes extremely high-dimensional. The coexistence of sparsity and high dimensionality greatly intensifies the conflict between exploration and exploitation, making it difficult for existing multi-objective evolutionary algorithms (MOEAs) to identify the critical nonzero decision variables within limited function evaluations. To address this challenge, this paper proposes an evolutionary algorithm with probabilistic annealing for large-scale sparse multi-objective optimization. The algorithm is driven by two probability vectors with distinct entropy characteristics: a convergence-oriented probability vector with relatively low entropy ensures stable exploitation, whereas an annealed probability vector with gradually decreasing entropy enables an adaptive transition from global exploration to local refinement. By integrating these complementary search dynamics, the proposed algorithm achieves a dynamic equilibrium between exploration and exploitation. Experimental results on benchmark problems and real-world applications demonstrate that the proposed algorithm outperforms state-of-the-art evolutionary algorithms in terms of both convergence and diversity.
- Abstract(参考訳): 大規模スパース多目的最適化問題 (LSMOP) は、現実のアプリケーションでは一般的であり、最適解は通常、敵攻撃、臨界ノード検出、スパース信号再構成など、少数の非ゼロ変数のみを含む。
LSMOPの関数評価は、多くの決定変数を含む大規模データセットに依存することが多いため、探索空間は極めて高次元となる。
スパーシリティと高次元性の共存は、探索と搾取の間の対立を大幅に強化し、既存の多目的進化アルゴリズム(MOEA)が限定的な関数評価の中で重要な非ゼロ決定変数を特定するのを困難にしている。
この課題に対処するために,大規模スパース多目的最適化のための確率的アニーリングを用いた進化的アルゴリズムを提案する。
このアルゴリズムは、2つのエントロピー特性を持つ確率ベクトルによって駆動される: 相対的に低いエントロピーを持つ収束指向確率ベクトルは安定した利用を保証し、一方、エントロピーが徐々に減少するアニールされた確率ベクトルは、大域探査から局所改良への適応的な遷移を可能にする。
これらの相補的な探索力学を統合することにより,提案アルゴリズムは探索とエクスプロイトの動的平衡を達成できる。
ベンチマーク問題および実世界の応用実験の結果、提案アルゴリズムは収束と多様性の両方の観点から最先端の進化的アルゴリズムより優れていることが示された。
関連論文リスト
- Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Rank-Based Learning and Local Model Based Evolutionary Algorithm for High-Dimensional Expensive Multi-Objective Problems [1.0499611180329806]
提案アルゴリズムは, ランクベース学習, ハイパーボリュームベース非支配探索, 比較的スパースな対象空間における局所探索の3つの部分からなる。
地熱貯留層熱抽出最適化におけるベンチマーク問題と実世界の応用の実験的結果は,提案アルゴリズムが優れた性能を示すことを示すものである。
論文 参考訳(メタデータ) (2023-04-19T06:25:04Z) - Near-optimal Policy Identification in Active Reinforcement Learning [84.27592560211909]
AE-LSVI はカーネル化された最小二乗値 RL (LSVI) アルゴリズムの新しい変種であり、楽観主義と悲観主義を組み合わせて活発な探索を行う。
AE-LSVIは初期状態に対するロバスト性が必要な場合、様々な環境で他のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-12-19T14:46:57Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - Solving Large-Scale Multi-Objective Optimization via Probabilistic
Prediction Model [10.916384208006157]
効率的なLSMOPアルゴリズムは、巨大な検索空間から局所最適解を逃れる能力を持つべきである。
人口の多様性を維持することは、探索効率を向上させる効果的な方法の1つである。
LSMOP に取り組むために,トレンド予測モデルと LT-PPM と呼ばれる生成フィルタ戦略に基づく確率的予測モデルを提案する。
論文 参考訳(メタデータ) (2021-07-16T09:43:35Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Manifold Interpolation for Large-Scale Multi-Objective Optimization via
Generative Adversarial Networks [12.18471608552718]
大規模多目的最適化問題(LSMOP)は、数百から数千の決定変数と複数の矛盾する目的を含むことを特徴とする。
これまでの研究では、これらの最適解は低次元空間の多様体構造に一様に分布していることが示されている。
本研究では, 生成逆数ネットワーク(GAN)に基づく多様体フレームワークを提案し, 多様体を学習し, 高品質な解を生成する。
論文 参考訳(メタデータ) (2021-01-08T09:38:38Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。