論文の概要: A Generalized Scalarization Method for Evolutionary Multi-objective
Optimization
- arxiv url: http://arxiv.org/abs/2212.01545v1
- Date: Sat, 3 Dec 2022 05:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:04:04.803094
- Title: A Generalized Scalarization Method for Evolutionary Multi-objective
Optimization
- Title(参考訳): 進化的多目的最適化のための一般化スカラー化法
- Authors: Ruihao Zheng and Zhenkun Wang
- Abstract要約: 本稿では,グローバル置換アルゴリズム(GR)をバックボーンとして利用する。
L_p$ベース(1leq pinfty$)サブプロブレムは、矛盾なく大きな嗜好領域を持つ。
一般化された$L_p$(G$L_p$)スカラー化を提案し、サブプロブレムの方向ベクトルがその優先領域を通過することを保証する。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The decomposition-based multi-objective evolutionary algorithm (MOEA/D)
transforms a multi-objective optimization problem (MOP) into a set of
single-objective subproblems for collaborative optimization. Mismatches between
subproblems and solutions can lead to severe performance degradation of MOEA/D.
Most existing mismatch coping strategies only work when the $L_{\infty}$
scalarization is used. A mismatch coping strategy that can use any $L_{p}$
scalarization, even when facing MOPs with non-convex Pareto fronts, is of great
significance for MOEA/D. This paper uses the global replacement (GR) as the
backbone. We analyze how GR can no longer avoid mismatches when $L_{\infty}$ is
replaced by another $L_{p}$ with $p\in [1,\infty)$, and find that the
$L_p$-based ($1\leq p<\infty$) subproblems having inconsistently large
preference regions. When $p$ is set to a small value, some middle subproblems
have very small preference regions so that their direction vectors cannot pass
through their corresponding preference regions. Therefore, we propose a
generalized $L_p$ (G$L_p$) scalarization to ensure that the subproblem's
direction vector passes through its preference region. Our theoretical analysis
shows that GR can always avoid mismatches when using the G$L_p$ scalarization
for any $p\geq 1$. The experimental studies on various MOPs conform to the
theoretical analysis.
- Abstract(参考訳): 分解に基づく多目的進化アルゴリズム(MOEA/D)は、多目的最適化問題(MOP)を協調最適化のための単目的サブプロブレムの集合に変換する。
サブプロブレムとソリューションのミスマッチは、MOEA/Dの大幅な性能劣化を引き起こす可能性がある。
既存のミスマッチ対応戦略のほとんどは、$L_{\infty}$ scalarizationを使用する場合にのみ有効である。
L_{p}$スカラー化を利用できるミスマッチ対応戦略は、非凸パレートフロントのMOPに面しても、MOEA/Dにとって非常に重要である。
本稿では,グローバル置換(GR)をバックボーンとして使用する。
我々は、$L_{\infty}$が別の$L_{p}$に$p\in [1,\infty)$に置き換えられ、$L_p$ベースの1\leq p<\infty$)サブプロブレムが矛盾なく大きな嗜好領域を持つとき、GRがもはやミスマッチを避けることができないかを分析する。
p$ が小さい値に設定されると、いくつかの中間部分問題は非常に小さな選好領域を持つため、その方向ベクトルは対応する選好領域を通過できない。
したがって、サブプロブレムの方向ベクトルがその優先領域を通過することを保証するために、一般化された$L_p$(G$L_p$)スカラー化を提案する。
理論解析により、任意の$p\geq 1$に対してg$l_p$スカラー化を使用する場合、grは常にミスマッチを回避できることが示された。
種々のMOPに関する実験的研究は理論解析に適合する。
関連論文リスト
- MGDA Converges under Generalized Smoothness, Provably [27.87166415148172]
多目的最適化(MOO)はマルチタスク学習など様々な分野で注目を集めている。
最近の研究は、理論解析を伴う効果的なアルゴリズムを提供しているが、それらは標準の$L$-smoothあるいは有界勾配仮定によって制限されている。
一般化された$ell$-smooth損失関数のより一般的で現実的なクラスについて研究し、$ell$は勾配ノルムの一般非減少関数である。
論文 参考訳(メタデータ) (2024-05-29T18:36:59Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Horizon-Free and Variance-Dependent Reinforcement Learning for Latent
Markov Decision Processes [62.90204655228324]
我々は,後期マルコフ決定過程(LMDP)における強化学習(RL)の文脈を考慮した後悔の最小化について検討した。
我々は,モデル最適化と値最適化の両手法でインスタンス化できる,新しいモデルベースアルゴリズムフレームワークを設計する。
論文 参考訳(メタデータ) (2022-10-20T21:32:01Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - Optimal Gradient Sliding and its Application to Distributed Optimization
Under Similarity [121.83085611327654]
積 $r:=p + q$, ここで$r$は$mu$-strong convex類似性である。
エージェントの通信やローカルコールにマスターされた問題を解決する方法を提案する。
提案手法は$mathcalO(sqrtL_q/mu)$法よりもはるかにシャープである。
論文 参考訳(メタデータ) (2022-05-30T14:28:02Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Gradient-Based Empirical Risk Minimization using Local Polynomial
Regression [39.29885444997579]
この論文の主な目標は、勾配降下(GD)や勾配降下(SGD)といった異なるアルゴリズムを比較することである。
損失関数がデータのスムーズな場合、各反復でオラクルを学習し、GDとSGDの両方のオラクル複雑度に打ち勝つことができることを示す。
論文 参考訳(メタデータ) (2020-11-04T20:10:31Z) - Truncated Linear Regression in High Dimensions [26.41623833920794]
truncated linear regression において、従属変数 $(A_i, y_i)_i$ は $y_i= A_irm T cdot x* + eta_i$ は固定された未知の興味ベクトルである。
目標は、$A_i$とノイズ分布に関するいくつかの好ましい条件の下で$x*$を回復することである。
我々は、$k$-sparse $n$-dimensional vectors $x*$ from $m$ truncated sample。
論文 参考訳(メタデータ) (2020-07-29T00:31:34Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z) - Does generalization performance of $l^q$ regularization learning depend
on $q$? A negative example [19.945160684285003]
$lq$-regularizationは、機械学習と統計モデリングにおいて魅力的なテクニックであることが示されている。
0 infty$ に対するすべての $lq$ 推定子は、同様の一般化誤差境界が得られることを示す。
この発見は、あるモデリングの文脈において、$q$の選択が一般化能力に強い影響を与えることはないことを仮に示している。
論文 参考訳(メタデータ) (2013-07-25T00:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。