論文の概要: A new derivative-free optimization method: Gaussian Crunching Search
- arxiv url: http://arxiv.org/abs/2307.14359v1
- Date: Mon, 24 Jul 2023 16:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 19:11:46.648580
- Title: A new derivative-free optimization method: Gaussian Crunching Search
- Title(参考訳): 新しいデリバティブフリー最適化法:ガウス計算探索
- Authors: Benny Wong
- Abstract要約: 我々はGaussian Crunching Search (GCS)と呼ばれる新しい最適化手法を提案する。
ガウス分布の粒子の挙動にインスパイアされたGCSは、解空間を効率的に探索し、大域的最適に向かって収束することを目的としている。
本研究は,最適化に関心のある研究者,実践者,学生にとって貴重な資料である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization methods are essential in solving complex problems across various
domains. In this research paper, we introduce a novel optimization method
called Gaussian Crunching Search (GCS). Inspired by the behaviour of particles
in a Gaussian distribution, GCS aims to efficiently explore the solution space
and converge towards the global optimum. We present a comprehensive analysis of
GCS, including its working mechanism, and potential applications. Through
experimental evaluations and comparisons with existing optimization methods, we
highlight the advantages and strengths of GCS. This research paper serves as a
valuable resource for researchers, practitioners, and students interested in
optimization, providing insights into the development and potential of Gaussian
Crunching Search as a new and promising approach.
- Abstract(参考訳): 最適化手法は、様々な領域にわたる複雑な問題の解決に不可欠である。
本稿では,Gaussian Crunching Search (GCS)と呼ばれる新しい最適化手法を提案する。
ガウス分布の粒子の挙動にインスパイアされたGCSは、解空間を効率的に探索し、大域的最適に向かって収束することを目的としている。
我々は,gcの動作機構や潜在的な用途を含む総合的な分析を行う。
既存の最適化手法と比較実験により,GCSの利点と強みを強調した。
本研究は,gaussian crunching searchを新しい有望なアプローチとして開発し,その可能性について考察し,最適化に関心を持つ研究者,実践者,学生にとって貴重な資源となる。
関連論文リスト
- Integrating Chaotic Evolutionary and Local Search Techniques in Decision Space for Enhanced Evolutionary Multi-Objective Optimization [1.8130068086063336]
本稿では,SOMMOP(Single-Objective Multi-Modal Optimization)とMOO(Multi-Objective Optimization)の両方に焦点を当てる。
SOMMOPではニッチ技術とカオス進化を統合し,ガウス突然変異を併用したパーシスタンス・クラスタリングを行った。
MOOでは,これらの手法を不確実性に基づく選択,適応的チューニングを組み込んだ包括的フレームワークに拡張し,決定論的群集に半径(R)の概念を導入する。
論文 参考訳(メタデータ) (2024-11-12T15:18:48Z) - Rapid optimization in high dimensional space by deep kernel learning augmented genetic algorithms [0.26716003713321473]
Deep Kernel Learning (DKL)は、選択された候補構造の空間を効率的にナビゲートするが、生成能力に欠ける。
本研究は, DKLをベースとしたサロゲートモデルにおいて, GAの生成能を両立させ, 新しい候補を創出するアプローチを提案する。
本稿では,フェロSIMモデルの最適化によるこのアプローチの有効性を実証し,多様な課題に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-04T06:18:17Z) - Optimizing Feature Selection with Genetic Algorithms: A Review of Methods and Applications [4.395397502990339]
遺伝的アルゴリズム (GA) は, 局所最適化を回避し, 選択プロセス自体を改善することで, 欠点に対する対策として提案されている。
本論文では,アプリケーションにおけるGAベースの特徴選択技術とその適用性について概観する。
論文 参考訳(メタデータ) (2024-09-05T22:28:42Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Enhancing Optimization Performance: A Novel Hybridization of Gaussian
Crunching Search and Powell's Method for Derivative-Free Optimization [0.0]
本稿では,ガウス的Crunching Search (GCS) とパウエルの微分自由最適化手法のハイブリッド化による最適化性能の向上手法を提案する。
このハイブリッドアプローチは、複雑なシステムを最適化し、様々なアプリケーションで最適解を見つける新しい可能性を開く。
論文 参考訳(メタデータ) (2023-08-09T01:27:04Z) - Extrinsic Bayesian Optimizations on Manifolds [1.3477333339913569]
オイクリッド多様体上の一般最適化問題に対する外部ベイズ最適化(eBO)フレームワークを提案する。
我々のアプローチは、まず多様体を高次元空間に埋め込むことによって、外部ガウス過程を採用することである。
これにより、複素多様体上の最適化のための効率的でスケーラブルなアルゴリズムが導かれる。
論文 参考訳(メタデータ) (2022-12-21T06:10:12Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Socio-cognitive Optimization of Time-delay Control Problems using
Evolutionary Metaheuristics [89.24951036534168]
メタヒューリスティックス(Metaheuristics)は、古典的なアプローチでは解決できない難解な問題を解くために使用される普遍的な最適化アルゴリズムである。
本稿では,キャストに基づく新しい社会認知メタヒューリスティックの構築を目標とし,このアルゴリズムのいくつかのバージョンを時間遅延システムモデルの最適化に適用する。
論文 参考訳(メタデータ) (2022-10-23T22:21:10Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。