論文の概要: Reinforcement learning based parameters adaption method for particle
swarm optimization
- arxiv url: http://arxiv.org/abs/2206.00835v1
- Date: Thu, 2 Jun 2022 02:16:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 14:43:40.246433
- Title: Reinforcement learning based parameters adaption method for particle
swarm optimization
- Title(参考訳): 粒子群最適化のための強化学習に基づくパラメータ適応法
- Authors: Yin ShiYuan
- Abstract要約: 本稿では,PSOの収束性を高めるため,強化学習に基づくオンラインパラメータ適応法(RLAM)を開発した。
CEC 2013の28のベンチマーク関数に関する実験は、他のオンライン適応法やPSOの変種と比較する際に行われる。
以上の結果から,提案したRLAMは効率的かつ有効であり,提案したRLPSOは最先端のPSOよりも優れていることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Particle swarm optimization (PSO) is a well-known optimization algorithm that
shows good performance in solving different optimization problems. However, PSO
usually suffers from slow convergence. In this article, a reinforcement
learning-based online parameters adaption method(RLAM) is developed to enhance
PSO in convergence by designing a network to control the coefficients of PSO.
Moreover, based on RLAM, a new RLPSO is designed.
In order to investigate the performance of RLAM and RLPSO, experiments on 28
CEC 2013 benchmark functions are carried out when comparing with other online
adaption method and PSO variants. The reported computational results show that
the proposed RLAM is efficient and effictive and that the the proposed RLPSO is
more superior compared with several state-of-the-art PSO variants.
- Abstract(参考訳): Particle Swarm Optimization (PSO) は、様々な最適化問題の解法において優れた性能を示す最適化アルゴリズムである。
しかし、psoは通常、収束が遅い。
本稿では、PSOの係数を制御するネットワークを設計し、PSOの収束性を高めるために強化学習に基づくオンラインパラメータ適応法(RLAM)を開発した。
さらに、RLAMに基づいて、新しいRLPSOを設計する。
RLAM と RLPSO の性能を調べるため,他のオンライン適応法や PSO 変種と比較して,28 CEC 2013 ベンチマーク関数の実験を行った。
報告された計算結果から,提案したRLAMは効率的かつ有効であり,提案したRLPSOは最先端のPSOよりも優れていることが示された。
関連論文リスト
- Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - A reinforcement learning strategy for p-adaptation in high order solvers [0.0]
強化学習(Reinforcement Learning, RL)は、意思決定プロセスを自動化するための有望なアプローチである。
本稿では,高次解法を用いる場合の計算メッシュの順序を最適化するためのRL手法の適用について検討する。
論文 参考訳(メタデータ) (2023-06-14T07:01:31Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [67.07008558942792]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - RSO: A Novel Reinforced Swarm Optimization Algorithm for Feature
Selection [0.0]
本稿では,Reinforced Swarm Optimization (RSO) という特徴選択アルゴリズムを提案する。
このアルゴリズムは、広く使われているBee Swarm Optimization (BSO)アルゴリズムとReinforcement Learning (RL)アルゴリズムを組み込んで、優れた検索エージェントの報酬を最大化し、劣悪なエージェントを罰する。
提案手法は、バランスの取れたデータと不均衡なデータの完全なブレンドを含む、広く知られている25のUCIデータセットで評価される。
論文 参考訳(メタデータ) (2021-07-29T17:38:04Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Particle Swarm Optimization: Fundamental Study and its Application to
Optimization and to Jetty Scheduling Problems [0.0]
従来の手法に関する進化的アルゴリズムの利点は、文献で大いに議論されている。
粒子群はそのような利点を共有しているが、計算コストの低減と実装の容易さが要求されるため、進化的アルゴリズムよりも優れている。
本論文は, それらのチューニングについて検討するものではなく, 従来の研究から汎用的な設定を抽出し, 様々な問題を最適化するために, 事実上同じアルゴリズムを用いている。
論文 参考訳(メタデータ) (2021-01-25T02:06:30Z) - Iterative Surrogate Model Optimization (ISMO): An active learning
algorithm for PDE constrained optimization with deep neural networks [14.380314061763508]
反復代理モデル最適化(ISMO)と呼ばれる新しい能動学習アルゴリズムを提案する。
このアルゴリズムはディープニューラルネットワークに基づいており、その重要な特徴は、ディープニューラルネットワークと基礎となる標準最適化アルゴリズムの間のフィードバックループを通じて、トレーニングデータの反復的な選択である。
論文 参考訳(メタデータ) (2020-08-13T07:31:07Z) - An Improved LSHADE-RSP Algorithm with the Cauchy Perturbation:
iLSHADE-RSP [9.777183117452235]
この手法は、コーシー分布の長い尾を持つ性質を採用することにより、探索を向上させることができる。
従来の手法と比較して,提案手法はジャンプ率に基づいて,突然変異ベクトルの代わりにターゲットベクトルを摂動する。
改良されたLSHADE-RSPの最適化性能を評価するために、30の異なる難解な最適化問題を用いている。
論文 参考訳(メタデータ) (2020-06-04T00:03:34Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。