論文の概要: Enhancing Optimization Performance: A Novel Hybridization of Gaussian
Crunching Search and Powell's Method for Derivative-Free Optimization
- arxiv url: http://arxiv.org/abs/2308.04649v1
- Date: Wed, 9 Aug 2023 01:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 15:31:55.307195
- Title: Enhancing Optimization Performance: A Novel Hybridization of Gaussian
Crunching Search and Powell's Method for Derivative-Free Optimization
- Title(参考訳): 最適化性能の向上: ガウスのCrunching Searchとパウエルの微分自由最適化法の新しいハイブリッド化
- Authors: Benny Wong
- Abstract要約: 本稿では,ガウス的Crunching Search (GCS) とパウエルの微分自由最適化手法のハイブリッド化による最適化性能の向上手法を提案する。
このハイブリッドアプローチは、複雑なシステムを最適化し、様々なアプリケーションで最適解を見つける新しい可能性を開く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research paper presents a novel approach to enhance optimization
performance through the hybridization of Gaussian Crunching Search (GCS) and
Powell's Method for derivative-free optimization. While GCS has shown promise
in overcoming challenges faced by traditional derivative-free optimization
methods [1], it may not always excel in finding the local minimum. On the other
hand, some traditional methods may have better performance in this regard.
However, GCS demonstrates its strength in escaping the trap of local minima and
approaching the global minima. Through experimentation, we discovered that by
combining GCS with certain traditional derivative-free optimization methods, we
can significantly boost performance while retaining the respective advantages
of each method. This hybrid approach opens up new possibilities for optimizing
complex systems and finding optimal solutions in a range of applications.
- Abstract(参考訳): 本稿では,ガウス的Crunching Search (GCS) とパウエルの微分自由最適化手法のハイブリッド化による最適化性能向上手法を提案する。
GCSは従来のデリバティブフリーの最適化手法[1]で直面する課題を克服する上で有望であるが、必ずしも局所的な最小値を見つけるのに優れているとは限らない。
一方、伝統的なメソッドの中には、この点ではパフォーマンスが向上するものもある。
しかし、gcsは局所ミニマの罠を逃れ、グローバルミニマに近づくという強みを示している。
実験により,GCSを従来の微分自由最適化手法と組み合わせることで,各手法の利点を維持しつつ,性能を大幅に向上させることができることがわかった。
このハイブリッドアプローチは、複雑なシステムを最適化し、様々なアプリケーションで最適解を見つける新しい可能性を開く。
関連論文リスト
- SPGD: Steepest Perturbed Gradient Descent Optimization [0.0]
本稿では,Steepest Perturbed Gradient Descent (SPGD)アルゴリズムを提案する。
一連の候補解を生成し、最も急な損失差を示すものを選択するように設計されている。
予備結果は4つの確立された方法よりも大幅に改善された。
論文 参考訳(メタデータ) (2024-11-07T18:23:30Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Enhancing Gaussian Process Surrogates for Optimization and Posterior Approximation via Random Exploration [2.984929040246293]
ガウス過程シュロゲートモデルの精度を高めるために、ランダムな探索ステップに依存する新しいノイズフリーベイズ最適化戦略。
新しいアルゴリズムは、古典的なGP-UCBの実装の容易さを維持しているが、さらなる探索がそれらの収束を促進する。
論文 参考訳(メタデータ) (2024-01-30T14:16:06Z) - A new derivative-free optimization method: Gaussian Crunching Search [0.0]
我々はGaussian Crunching Search (GCS)と呼ばれる新しい最適化手法を提案する。
ガウス分布の粒子の挙動にインスパイアされたGCSは、解空間を効率的に探索し、大域的最適に向かって収束することを目的としている。
本研究は,最適化に関心のある研究者,実践者,学生にとって貴重な資料である。
論文 参考訳(メタデータ) (2023-07-24T16:17:53Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Accelerating the Evolutionary Algorithms by Gaussian Process Regression
with $\epsilon$-greedy acquisition function [2.7716102039510564]
本稿では,最適化の収束を早めるために,エリート個人を推定する新しい手法を提案する。
我々の提案には、エリート個人を推定し、最適化の収束を加速する幅広い見通しがある。
論文 参考訳(メタデータ) (2022-10-13T07:56:47Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - Acceleration Methods [57.202881673406324]
まず2次最適化問題を用いて加速法を2つ導入する。
我々は、ネステロフの精巧な研究から始まる運動量法を詳細に論じる。
我々は、ほぼ最適な収束率に達するための一連の簡単な手法である再起動スキームを議論することで結論付ける。
論文 参考訳(メタデータ) (2021-01-23T17:58:25Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。