論文の概要: Parameter Tuning of the Firefly Algorithm by Three Tuning Methods: Standard Monte Carlo, Quasi-Monte Carlo and Latin Hypercube Sampling Methods
- arxiv url: http://arxiv.org/abs/2504.18545v1
- Date: Thu, 10 Apr 2025 19:26:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 01:46:36.910556
- Title: Parameter Tuning of the Firefly Algorithm by Three Tuning Methods: Standard Monte Carlo, Quasi-Monte Carlo and Latin Hypercube Sampling Methods
- Title(参考訳): 標準モンテカルロ,準モンテカルロ,ラテンハイパーキューブサンプリング法によるフライアルゴリズムのパラメータチューニング
- Authors: Geethu Joy, Christian Huyck, Xin-She Yang,
- Abstract要約: Firefly Algorithm (FA) はモンテカルロ法、準モンテカルロ法、ラテンハイパーキューブサンプリングという3つの異なる方法で調整される。
パラメータ設定が最適解の品質に与える影響を解析した。
- 参考スコア(独自算出の注目度): 1.249418440326334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are many different nature-inspired algorithms in the literature, and almost all such algorithms have algorithm-dependent parameters that need to be tuned. The proper setting and parameter tuning should be carried out to maximize the performance of the algorithm under consideration. This work is the extension of the recent work on parameter tuning by Joy et al. (2024) presented at the International Conference on Computational Science (ICCS 2024), and the Firefly Algorithm (FA) is tuned using three different methods: the Monte Carlo method, the Quasi-Monte Carlo method and the Latin Hypercube Sampling. The FA with the tuned parameters is then used to solve a set of six different optimization problems, and the possible effect of parameter setting on the quality of the optimal solutions is analyzed. Rigorous statistical hypothesis tests have been carried out, including Student's t-tests, F-tests, non-parametric Friedman tests and ANOVA. Results show that the performance of the FA is not influenced by the tuning methods used. In addition, the tuned parameter values are largely independent of the tuning methods used. This indicates that the FA can be flexible and equally effective in solving optimization problems, and any of the three tuning methods can be used to tune its parameters effectively.
- Abstract(参考訳): 文学には多くの自然に触発されたアルゴリズムがあり、ほとんど全てのアルゴリズムは調整が必要なアルゴリズムに依存したパラメータを持っている。
検討中のアルゴリズムの性能を最大化するために、適切な設定とパラメータチューニングを行う必要がある。
この研究は、国際計算科学会議(ICCS 2024)で発表されたJoy et al (2024)によるパラメータチューニングに関する最近の研究の拡張であり、ファイアフライアルゴリズム(FA)はモンテカルロ法、準モンテカルロ法、ラテンハイパーキューブサンプリングの3つの異なる手法を用いてチューニングされている。
次に、調整されたパラメータを持つFAを用いて6つの最適化問題の集合を解き、パラメータ設定が最適解の品質に与える影響を解析する。
学生のt検定、F検定、非パラメトリックフリードマン検定、ANOVAを含む厳密な統計的仮説試験が実施されている。
その結果, FAの性能は, 使用したチューニング方法の影響を受けないことがわかった。
さらに、チューニングされたパラメータ値は、使用されるチューニング方法と大きく独立している。
このことは、FAは最適化問題を解くのに柔軟で等しく効果的であり、3つのチューニング手法のどれでもパラメータを効果的に調整することができることを示している。
関連論文リスト
- Parameter Tuning of the Firefly Algorithm by Standard Monte Carlo and Quasi-Monte Carlo Methods [1.249418440326334]
Firefly Algorithm (FA) はパラメータ値が効率に与える影響を評価するために用いられる。
2つのベンチマーク関数とスプリング設計問題は、調整されたFAの堅牢性をテストするために使用される。
論文 参考訳(メタデータ) (2024-07-01T21:17:27Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Review of Parameter Tuning Methods for Nature-Inspired Algorithms [1.4042211166197214]
この章では、パラメータチューニングの主要な方法をいくつかレビューし、パラメータチューニングの最新開発に関する重要な問題を強調します。
いくつかのオープンな問題も今後の研究の推奨事項として議論されている。
論文 参考訳(メタデータ) (2023-08-30T11:41:39Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Delta Tuning: A Comprehensive Study of Parameter Efficient Methods for
Pre-trained Language Models [90.24999406296867]
標準の微調整とは対照的に、デルタチューニングはモデルパラメータのごく一部を微調整するだけであり、残りは触れないままである。
近年の研究では、パラメータ選択の異なる一連のデルタチューニング手法が、フルパラメータの微調整と同等の性能を達成できることが示されている。
論文 参考訳(メタデータ) (2022-03-14T07:56:32Z) - Parameter Tuning Strategies for Metaheuristic Methods Applied to
Discrete Optimization of Structural Design [0.0]
本稿では, 鉄筋コンクリート(RC)構造物の設計最適化のためのメタヒューリスティック手法のパラメータを調整するためのいくつかの手法を提案する。
平均性能曲線の下での面積に基づいて, 実用性指標を提案する。
論文 参考訳(メタデータ) (2021-10-12T17:34:39Z) - Lazy Parameter Tuning and Control: Choosing All Parameters Randomly From
a Power-Law Distribution [8.34061303235504]
ほとんどの進化的アルゴリズムは複数のパラメータを持ち、その値は性能に大きな影響を及ぼす。
そこで本研究では,各繰り返しにおけるパラメータの値を,適切にスケールされたパワー・ロー分布からランダムに選択する,遅延だが効果的な解を提案する。
静的パラメータで知られている最高のパフォーマンスに匹敵する性能を保証する。
論文 参考訳(メタデータ) (2021-04-14T09:17:18Z) - On Hyper-parameter Tuning for Stochastic Optimization Algorithms [28.88646928299302]
本稿では,強化学習に基づく最適化アルゴリズムのハイパーパラメータをチューニングするための,最初のアルゴリズムフレームワークを提案する。
提案フレームワークはアルゴリズムにおけるハイパーパラメータチューニングの標準ツールとして利用できる。
論文 参考訳(メタデータ) (2020-03-04T12:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。