論文の概要: DeepHive: A multi-agent reinforcement learning approach for automated
discovery of swarm-based optimization policies
- arxiv url: http://arxiv.org/abs/2304.04751v1
- Date: Wed, 29 Mar 2023 18:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 22:25:01.130789
- Title: DeepHive: A multi-agent reinforcement learning approach for automated
discovery of swarm-based optimization policies
- Title(参考訳): deephive:swarmベースの最適化ポリシの自動発見のためのマルチエージェント強化学習アプローチ
- Authors: Eloghosa Ikponmwoba and Ope Owoyele
- Abstract要約: Swarm内の各エージェントの状態は、設計空間内の現在の位置と関数値として定義される。
提案手法は,様々なベンチマーク最適化関数を用いて検証し,他のグローバル最適化手法との比較を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an approach for designing swarm-based optimizers for the global
optimization of expensive black-box functions. In the proposed approach, the
problem of finding efficient optimizers is framed as a reinforcement learning
problem, where the goal is to find optimization policies that require a few
function evaluations to converge to the global optimum. The state of each agent
within the swarm is defined as its current position and function value within a
design space and the agents learn to take favorable actions that maximize
reward, which is based on the final value of the objective function. The
proposed approach is tested on various benchmark optimization functions and
compared to the performance of other global optimization strategies.
Furthermore, the effect of changing the number of agents, as well as the
generalization capabilities of the trained agents are investigated. The results
show superior performance compared to the other optimizers, desired scaling
when the number of agents is varied, and acceptable performance even when
applied to unseen functions. On a broader scale, the results show promise for
the rapid development of domain-specific optimizers.
- Abstract(参考訳): 本稿では,高価なブラックボックス関数のグローバル最適化のためのSwarmベースの最適化設計手法を提案する。
提案手法では,効率的な最適化器の探索は強化学習の問題であり,その目的はグローバルな最適化に収束するために少数の関数評価を必要とする最適化ポリシーを見つけることである。
Swarm内の各エージェントの状態は、その現在の位置と設計空間内の関数値として定義され、エージェントは、目的関数の最終値に基づいて、報酬を最大化する好ましいアクションを取ることを学習する。
提案手法は様々なベンチマーク最適化関数上でテストされ、他のグローバル最適化手法の性能と比較される。
さらに, エージェント数を変化させる効果と, 訓練したエージェントの一般化能力について検討した。
その結果、他のオプティマイザよりも優れた性能を示し、エージェントの数が異なる場合の所望のスケーリング、そして、目に見えない関数に適用しても許容できる性能を示した。
より広いスケールで、結果はドメイン固有のオプティマイザの迅速な開発に期待を示しています。
関連論文リスト
- Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Advancements in Optimization: Adaptive Differential Evolution with
Diversification Strategy [0.0]
この研究は2次元空間において単目的最適化を採用し、複数の反復で各ベンチマーク関数上でADEDSを実行する。
ADEDSは、多くの局所最適化、プレート型、谷型、伸縮型、ノイズの多い機能を含む様々な最適化課題において、標準Dより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-02T10:05:41Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Bayesian Optimization with Informative Covariance [13.113313427848828]
探索空間の特定の領域の好みを符号化するために,非定常性を利用した新しい情報共分散関数を提案する。
提案した関数は,より弱い事前情報の下でも,ハイ次元でのベイズ最適化のサンプル効率を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-08-04T15:05:11Z) - On the development of a Bayesian optimisation framework for complex
unknown systems [11.066706766632578]
本稿では, ベイズ最適化アルゴリズムを様々な合成試験関数に対して実験的に検討し, 比較する。
取得関数の選択とトレーニングサンプル数,取得関数の正確な計算,モンテカルロに基づくアプローチについて検討する。
論文 参考訳(メタデータ) (2022-07-19T09:50:34Z) - Inverse Bayesian Optimization: Learning Human Search Strategies in a
Sequential Optimization Task [0.10499611180329801]
本稿では,ベイズ最適化の逆問題について考察する。
観察された探索経路に基づいてエージェントの潜時獲得関数を推定する。
実験から人間の行動を解析し,その方法を説明する。
論文 参考訳(メタデータ) (2021-04-16T15:40:34Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization [0.1749935196721634]
目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
論文 参考訳(メタデータ) (2020-03-09T15:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。