論文の概要: Quality-Diversity Optimization: a novel branch of stochastic
optimization
- arxiv url: http://arxiv.org/abs/2012.04322v2
- Date: Thu, 17 Dec 2020 00:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:37:17.912076
- Title: Quality-Diversity Optimization: a novel branch of stochastic
optimization
- Title(参考訳): 品質多様性最適化 : 確率最適化の新分野
- Authors: Konstantinos Chatzilygeroudis, Antoine Cully, Vassilis Vassiliades and
Jean-Baptiste Mouret
- Abstract要約: マルチモーダル最適化アルゴリズムは、複数のことができる検索空間で最も高いピークを検索します。
品質多様性アルゴリズムは、進化的計算ツールボックスに最近追加されたもので、単一の局所光学系を探索するだけでなく、検索空間を照らそうとする。
- 参考スコア(独自算出の注目度): 5.677685109155078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional optimization algorithms search for a single global optimum that
maximizes (or minimizes) the objective function. Multimodal optimization
algorithms search for the highest peaks in the search space that can be more
than one. Quality-Diversity algorithms are a recent addition to the
evolutionary computation toolbox that do not only search for a single set of
local optima, but instead try to illuminate the search space. In effect, they
provide a holistic view of how high-performing solutions are distributed
throughout a search space. The main differences with multimodal optimization
algorithms are that (1) Quality-Diversity typically works in the behavioral
space (or feature space), and not in the genotypic (or parameter) space, and
(2) Quality-Diversity attempts to fill the whole behavior space, even if the
niche is not a peak in the fitness landscape. In this chapter, we provide a
gentle introduction to Quality-Diversity optimization, discuss the main
representative algorithms, and the main current topics under consideration in
the community. Throughout the chapter, we also discuss several successful
applications of Quality-Diversity algorithms, including deep learning,
robotics, and reinforcement learning.
- Abstract(参考訳): 従来の最適化アルゴリズムは、目的関数を最大化(または最小化)する単一のグローバル最適化を探索する。
マルチモーダル最適化アルゴリズムは、1つ以上の探索空間で最も高いピークを探索する。
品質多様性アルゴリズムは、進化的計算ツールボックスに最近追加されたもので、単一の局所光学系を探索するだけでなく、検索空間を照らそうとする。
実際、彼らは高パフォーマンスなソリューションが検索空間全体にどのように分散されているかの全体像を提供する。
マルチモーダル最適化アルゴリズムとの主な違いは、(1)品質の多様性は一般的に行動空間(または特徴空間)で機能し、ジェネティピック(またはパラメータ)空間では動作しない。
本章では,品質と多様性の最適化について概説し,主要な代表的アルゴリズムと,コミュニティで検討中の主要なトピックについて論じる。
この章を通じて、ディープラーニング、ロボット工学、強化学習を含む品質多様性アルゴリズムのいくつかの成功例についても論じる。
関連論文リスト
- Multi-objective Evolution of Heuristic Using Large Language Model [29.337470185034555]
ヒューリスティックスは、様々な探索と最適化の問題に取り組むために一般的に用いられる。
最近の研究は、その強力な言語と符号化能力を活用して、大規模言語モデル(LLM)を自動検索に取り入れている。
本稿では,多目的最適化問題として探索をモデル化し,最適性能以外の実践的基準を導入することを提案する。
論文 参考訳(メタデータ) (2024-09-25T12:32:41Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Quality-Diversity Algorithms Can Provably Be Helpful for Optimization [24.694984679399315]
QD(Quality-Diversity)アルゴリズムは、ハイパフォーマンスだが多様なソリューションのセットを見つけることを目的としている。
本稿では,厳密な実行時間解析によってQDアルゴリズムの最適化能力に光を当てようとしている。
論文 参考訳(メタデータ) (2024-01-19T07:40:24Z) - Rank-Based Learning and Local Model Based Evolutionary Algorithm for High-Dimensional Expensive Multi-Objective Problems [1.0499611180329806]
提案アルゴリズムは, ランクベース学習, ハイパーボリュームベース非支配探索, 比較的スパースな対象空間における局所探索の3つの部分からなる。
地熱貯留層熱抽出最適化におけるベンチマーク問題と実世界の応用の実験的結果は,提案アルゴリズムが優れた性能を示すことを示すものである。
論文 参考訳(メタデータ) (2023-04-19T06:25:04Z) - Don't Bet on Luck Alone: Enhancing Behavioral Reproducibility of
Quality-Diversity Solutions in Uncertain Domains [2.639902239625779]
アーカイブ再現性向上アルゴリズム(ARIA)を紹介する。
ARIAは、アーカイブに存在するソリューションの品質を改善するプラグイン・アンド・プレイのアプローチである。
提案アルゴリズムは,任意のアーカイブの品質とディスクリプタ空間のカバレッジを少なくとも50%向上させることを示す。
論文 参考訳(メタデータ) (2023-04-07T14:45:14Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Fighting the curse of dimensionality: A machine learning approach to
finding global optima [77.34726150561087]
本稿では,構造最適化問題におけるグローバル最適化の方法を示す。
特定のコスト関数を利用することで、最適化手順が確立された場合と比較して、グローバルをベストに得るか、最悪の場合、優れた結果を得るかのどちらかを得る。
論文 参考訳(メタデータ) (2021-10-28T09:50:29Z) - AutoSpace: Neural Architecture Search with Less Human Interference [84.42680793945007]
現在のニューラルネットワークアーキテクチャ検索(NAS)アルゴリズムは、ネットワーク構築のための検索空間を設計するための専門知識と努力を必要とします。
探索空間を最適なものに進化させる新しい微分可能な進化フレームワークであるAutoSpaceを提案する。
学習した検索空間では、最近のNASアルゴリズムの性能は、以前手作業で設計した空間に比べて大幅に改善できる。
論文 参考訳(メタデータ) (2021-03-22T13:28:56Z) - Community detection using fast low-cardinality semidefinite programming [94.4878715085334]
局所的な更新を一般化し、ライデン-k-カットから導かれる半定緩和を最大化する、新しい低カルチナリティアルゴリズムを提案する。
提案アルゴリズムはスケーラビリティが高く,最先端のアルゴリズムより優れ,実時間では性能が向上し,追加コストがほとんどない。
論文 参考訳(メタデータ) (2020-12-04T15:46:30Z) - Evolving Search Space for Neural Architecture Search [70.71153433676024]
最適化された検索空間サブセットを維持することにより,前回の取り組みから得られた結果を増幅するニューラルサーチ空間進化(NSE)方式を提案する。
我々は333万のFLOPでImageNet上で77.3%のトップ1リトレーニング精度を実現し、最先端の性能を得た。
遅延制約が適用された場合、我々の結果は、77.9%のTop-1再トレーニング精度を持つ、以前の最高のパフォーマンスのモバイルモデルよりも優れた性能が得られる。
論文 参考訳(メタデータ) (2020-11-22T01:11:19Z) - BOP-Elites, a Bayesian Optimisation algorithm for Quality-Diversity
search [0.0]
本稿では,エリートアルゴリズム(BOP-Elites)のベイズ最適化を提案する。
機能領域のユーザ定義領域を‘ニッチ’として考えることで、ニッチ毎に最適なソリューションを見つけることが私たちのタスクになります。
得られたアルゴリズムは、特徴空間におけるニッチに属する探索空間の部分を特定し、ニッチごとに最適な解を見つけるのに非常に効果的である。
論文 参考訳(メタデータ) (2020-05-08T23:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。