論文の概要: Large Scale Many-Objective Optimization Driven by Distributional
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2003.07013v1
- Date: Mon, 16 Mar 2020 04:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 02:57:18.363450
- Title: Large Scale Many-Objective Optimization Driven by Distributional
Adversarial Networks
- Title(参考訳): 分散逆ネットワークによる大規模多目的最適化
- Authors: Zhenyu Liang, Yunfan Li, Zhongwei Wan
- Abstract要約: 本稿では, RVEA フレームワークに基づく新しいアルゴリズムを提案し, 分散適応ネットワーク (DAN) を用いて新たな子孫を生成する。
大規模多目的問題(LSMOP)における9つのベンチマーク問題に対して,新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.2461503242570644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimation of distribution algorithms (EDA) as one of the EAs is a stochastic
optimization problem which establishes a probability model to describe the
distribution of solutions and randomly samples the probability model to create
offspring and optimize model and population. Reference Vector Guided
Evolutionary (RVEA) based on the EDA framework, having a better performance to
solve MaOPs. Besides, using the generative adversarial networks to generate
offspring solutions is also a state-of-art thought in EAs instead of crossover
and mutation. In this paper, we will propose a novel algorithm based on RVEA[1]
framework and using Distributional Adversarial Networks (DAN) [2]to generate
new offspring. DAN uses a new distributional framework for adversarial training
of neural networks and operates on genuine samples rather than a single point
because the framework also leads to more stable training and extraordinarily
better mode coverage compared to single-point-sample methods. Thereby, DAN can
quickly generate offspring with high convergence regarding the same
distribution of data. In addition, we also use Large-Scale Multi-Objective
Optimization Based on A Competitive Swarm Optimizer (LMOCSO)[3] to adopts a new
two-stage strategy to update the position in order to significantly increase
the search efficiency to find optimal solutions in huge decision space. The
propose new algorithm will be tested on 9 benchmark problems in Large scale
multi-objective problems (LSMOP). To measure the performance, we will compare
our proposal algorithm with some state-of-art EAs e.g., RM-MEDA[4], MO-CMA[10]
and NSGA-II.
- Abstract(参考訳): 分布アルゴリズム(EDA)をEAの1つとして推定することは確率的最適化問題であり、解の分布を記述する確率モデルを確立し、確率モデルをランダムにサンプリングし、子孫を作り、モデルと人口を最適化する。
EDAフレームワークに基づいた参照ベクターガイド進化(RVEA)は、MaOPを解くためのより良いパフォーマンスを持つ。
さらに、生成的対向ネットワークを用いて子孫の解を生成することは、EAにおいてクロスオーバーや突然変異ではなく最先端の思考である。
本稿では, RVEA[1] フレームワークをベースとした新しいアルゴリズムを提案し, 分散適応ネットワーク(DAN) [2] を用いて新たな子孫を生成する。
dan氏は、ニューラルネットワークの敵対的なトレーニングに新たな分散フレームワークを使用しており、単一のポイントではなく、本物のサンプルで動作する。
これにより、同じデータ分布について高い収束率で迅速に子孫を発生させることができる。
さらに,競争型swarmオプティマイザ(lmocso)[3]に基づく大規模多目的最適化を用いて,新たな2段階戦略を適用して位置更新を行い,検索効率を大幅に向上させ,巨大な意思決定空間における最適解を求める。
提案アルゴリズムは,大規模多目的問題 (LSMOP) における9つのベンチマーク問題に対して検証を行う。
性能を測定するために,提案アルゴリズムをrm-meda[4],mo-cma[10],nsga-iiなどの最先端のアルゴリズムと比較する。
関連論文リスト
- MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.47014540413659]
Adam、Adam、およびそれらの変種のような大規模な勾配アルゴリズムは、この種のトレーニングの開発の中心となっている。
本稿では,事前条件付き勾配最適化手法と,スケールドモーメント手法による分散低減を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Combining Kernelized Autoencoding and Centroid Prediction for Dynamic
Multi-objective Optimization [3.431120541553662]
本稿では,カーネル化された自己コード進化探索と遠近法に基づく予測を組み合わせた統一パラダイムを提案する。
提案手法は,多くの複雑なベンチマーク問題に対して,最先端の5つのアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-12-02T00:24:22Z) - Learning to Solve Routing Problems via Distributionally Robust
Optimization [14.506553345693536]
ルーティング問題を解決するための最近のディープモデルでは、トレーニング用のノードの単一分布が想定されており、分散一般化能力を著しく損なう。
この問題に対処するために、群分布的ロバストな最適化(グループDRO)を活用し、異なる分布群に対する重み付けと深層モデルのパラメータを、トレーニング中にインターリーブされた方法で共同で最適化する。
また、畳み込みニューラルネットワークに基づくモジュールを設計し、ディープモデルがノード間のより情報に富んだ潜在パターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-02-15T08:06:44Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Many-Objective Estimation of Distribution Optimization Algorithm Based
on WGAN-GP [1.2461503242570644]
EDAは多目的最適問題(MOP)をよりよく解決できる
We generate the new population by Wasserstein Generative Adversarial Networks-Gradient Penalty (WGAN-GP)
論文 参考訳(メタデータ) (2020-03-16T03:14:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。