論文の概要: Many-Objective Estimation of Distribution Optimization Algorithm Based
on WGAN-GP
- arxiv url: http://arxiv.org/abs/2003.08295v1
- Date: Mon, 16 Mar 2020 03:14:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 02:56:50.033736
- Title: Many-Objective Estimation of Distribution Optimization Algorithm Based
on WGAN-GP
- Title(参考訳): WGAN-GPに基づく分布最適化アルゴリズムの多目的推定
- Authors: Zhenyu Liang, Yunfan Li, Zhongwei Wan
- Abstract要約: EDAは多目的最適問題(MOP)をよりよく解決できる
We generate the new population by Wasserstein Generative Adversarial Networks-Gradient Penalty (WGAN-GP)
- 参考スコア(独自算出の注目度): 1.2461503242570644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimation of distribution algorithms (EDA) are stochastic optimization
algorithms. EDA establishes a probability model to describe the distribution of
solution from the perspective of population macroscopically by statistical
learning method, and then randomly samples the probability model to generate a
new population. EDA can better solve multi-objective optimal problems (MOPs).
However, the performance of EDA decreases in solving many-objective optimal
problems (MaOPs), which contains more than three objectives. Reference Vector
Guided Evolutionary Algorithm (RVEA), based on the EDA framework, can better
solve MaOPs. In our paper, we use the framework of RVEA. However, we generate
the new population by Wasserstein Generative Adversarial Networks-Gradient
Penalty (WGAN-GP) instead of using crossover and mutation. WGAN-GP have
advantages of fast convergence, good stability and high sample quality. WGAN-GP
learn the mapping relationship from standard normal distribution to given data
set distribution based on a given data set subject to the same distribution. It
can quickly generate populations with high diversity and good convergence. To
measure the performance, RM-MEDA, MOPSO and NSGA-II are selected to perform
comparison experiments over DTLZ and LSMOP test suites with 3-, 5-, 8-, 10- and
15-objective.
- Abstract(参考訳): 分布アルゴリズム(eda)の推定は確率的最適化アルゴリズムである。
edaは、統計学習法を用いて、人口の視点から解の分布を記述する確率モデルを確立し、確率モデルをランダムにサンプリングして新しい人口を生成する。
EDAは多目的最適問題(MOP)をよりよく解くことができる。
しかし、EDAの性能は、3つ以上の目的を含む多目的最適問題(MaOP)の解決において低下する。
EDAフレームワークに基づいた参照ベクトルガイド進化アルゴリズム(RVEA)は、MaOPをよりよく解くことができる。
本稿では,rveaの枠組みについて述べる。
しかし,WGAN-GP(Warsserstein Generative Adversarial Networks-Gradient Penalty)では,交叉や突然変異ではなく新たな集団を生成する。
WGAN-GPは、高速収束、優れた安定性、高い試料品質の利点がある。
WGAN-GPは、標準正規分布から与えられたデータセット分布へのマッピング関係を、同じ分布を受ける所定のデータセットに基づいて学習する。
多様性が高く、収束性が高い集団を素早く生み出すことができる。
RM-MEDA, MOPSO, NSGA-IIを用いて, 3, 5-, 8-, 10-, 15-対象のDTLZおよびLSMOPテストスイートの比較実験を行った。
関連論文リスト
- Stability and Generalization for Distributed SGDA [70.97400503482353]
分散SGDAのための安定性に基づく一般化分析フレームワークを提案する。
我々は, 安定性の誤差, 一般化ギャップ, 人口リスクの包括的分析を行う。
理論的結果から,一般化ギャップと最適化誤差のトレードオフが明らかになった。
論文 参考訳(メタデータ) (2024-11-14T11:16:32Z) - Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - Bivariate Estimation-of-Distribution Algorithms Can Find an Exponential
Number of Optima [12.009357100208353]
本稿では,最適化アルゴリズムが大規模最適集合を処理する方法の研究を支援するために,テスト関数EqualBlocksOneMax(EBOM)を提案する。
EBOM は EBOM の理論的に理想的なモデルと非常によく似ており、このモデルは同じ最大確率で指数的に多くの最適値のそれぞれをサンプリングする。
論文 参考訳(メタデータ) (2023-10-06T06:32:07Z) - Generalizing Gaussian Smoothing for Random Search [23.381986209234164]
ガウススムースティング(英: Gaussian smoothing、GS)は、現在のベンチマークの摂動を用いて対象の勾配を推定する微分自由最適化アルゴリズムである。
そこで本研究では,MSEが比較的小さいような分布の誤差を最小限に抑えた摂動分布を選択することを提案する。
論文 参考訳(メタデータ) (2022-11-27T04:42:05Z) - Towards Optimization and Model Selection for Domain Generalization: A
Mixup-guided Solution [43.292274574847234]
そこで本研究では,ドメイン一般化のためのMixupガイドによる最適化と選択手法を提案する。
最適化のために、好みの方向を導出するアウト・オブ・ディストリビューション・データセットを利用する。
モデル選択のために、ターゲット分布に近づいた検証データセットを生成する。
論文 参考訳(メタデータ) (2022-09-01T02:18:00Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Large Scale Many-Objective Optimization Driven by Distributional
Adversarial Networks [1.2461503242570644]
本稿では, RVEA フレームワークに基づく新しいアルゴリズムを提案し, 分散適応ネットワーク (DAN) を用いて新たな子孫を生成する。
大規模多目的問題(LSMOP)における9つのベンチマーク問題に対して,新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-16T04:14:15Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。