論文の概要: Genetic Algorithm enhanced by Deep Reinforcement Learning in parent
selection mechanism and mutation : Minimizing makespan in permutation flow
shop scheduling problems
- arxiv url: http://arxiv.org/abs/2311.05937v2
- Date: Wed, 17 Jan 2024 10:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 20:15:00.661179
- Title: Genetic Algorithm enhanced by Deep Reinforcement Learning in parent
selection mechanism and mutation : Minimizing makespan in permutation flow
shop scheduling problems
- Title(参考訳): 親選択機構と突然変異における深層強化学習による遺伝的アルゴリズム : 置換フローショップスケジューリング問題の最小化
- Authors: Maissa Irmouli, Nourelhouda Benazzoug, Alaa Dania Adimi, Fatma Zohra
Rezkellah, Imane Hamzaoui, Thanina Hamitouche, Malika Bessedik, Fatima Si
Tayeb
- Abstract要約: RL+GA法はフローショップスケジューリング問題(FSP)で特に検証された。
このハイブリッドアルゴリズムはニューラルネットワーク(NN)を導入し、Qラーニング(Q-learning)というオフ政治手法を使用する。
本研究は, プリミティブGAの性能向上におけるRL+GAアプローチの有効性を明らかにするものである。
- 参考スコア(独自算出の注目度): 0.18846515534317265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a reinforcement learning (RL) approach to address the
challenges associated with configuring and optimizing genetic algorithms (GAs)
for solving difficult combinatorial or non-linear problems. The proposed RL+GA
method was specifically tested on the flow shop scheduling problem (FSP). The
hybrid algorithm incorporates neural networks (NN) and uses the off-policy
method Q-learning or the on-policy method Sarsa(0) to control two key genetic
algorithm (GA) operators: parent selection mechanism and mutation. At each
generation, the RL agent's action is determining the selection method, the
probability of the parent selection and the probability of the offspring
mutation. This allows the RL agent to dynamically adjust the selection and
mutation based on its learned policy. The results of the study highlight the
effectiveness of the RL+GA approach in improving the performance of the
primitive GA. They also demonstrate its ability to learn and adapt from
population diversity and solution improvements over time. This adaptability
leads to improved scheduling solutions compared to static parameter
configurations while maintaining population diversity throughout the
evolutionary process.
- Abstract(参考訳): 本稿では,遺伝的アルゴリズム(GA)の設定と最適化に関わる課題に対処するための強化学習(RL)アプローチを提案する。
RL+GA法はフローショップスケジューリング問題(FSP)で特に試験された。
このハイブリッドアルゴリズムは、ニューラルネットワーク(NN)を組み込んでおり、親選択機構と突然変異の2つの主要な遺伝的アルゴリズム(GA)オペレータを制御するために、Qラーニング(Q-learning)法またはSarsa(0)法を用いる。
各世代において、RLエージェントの作用は、選択方法、親選択の確率、子孫突然変異の確率を決定することである。
これにより、RLエージェントは学習されたポリシーに基づいて選択と突然変異を動的に調整できる。
本研究の結果は,RL+GAアプローチがプリミティブGAの性能向上に有効であることを示す。
また、集団の多様性とソリューションの改善から学習し、適応する能力も示している。
この適応性は、進化過程を通じて集団の多様性を維持しつつ、静的パラメータの設定と比較してスケジューリングソリューションを改善する。
関連論文リスト
- Genetic Engineering Algorithm (GEA): An Efficient Metaheuristic
Algorithm for Solving Combinatorial Optimization Problems [1.8434042562191815]
遺伝的アルゴリズム(GA)は最適化問題の解法における効率性で知られている。
本稿では遺伝子工学の概念からインスピレーションを得るため,遺伝子工学アルゴリズム(GEA)と呼ばれる新しいメタヒューリスティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-28T13:05:30Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - Discovering Attention-Based Genetic Algorithms via Meta-Black-Box
Optimization [13.131971623143622]
全く新しい遺伝的アルゴリズムをデータ駆動方式で発見する。
我々は、選択と突然変異率の適応をクロスアテンションモジュールおよびセルフアテンションモジュールとしてパラメトリズする。
学習アルゴリズムは、未確認の最適化問題、探索次元、評価予算に適用できる。
論文 参考訳(メタデータ) (2023-04-08T12:14:15Z) - Epigenetics Algorithms: Self-Reinforcement-Attention mechanism to
regulate chromosomes expression [0.0]
本稿ではメチル化として知られるエピジェネティックス現象を模倣する新しいエピジェネティックスアルゴリズムを提案する。
エピジェネティックスアルゴリズムの斬新さは、主に注意機構と深層学習を利用しており、遺伝子/サイレンシングの概念とよく適合している。
論文 参考訳(メタデータ) (2023-03-15T21:33:21Z) - Effective Mutation Rate Adaptation through Group Elite Selection [50.88204196504888]
本稿では,GESMR(Group Elite Selection of Mutation Rates)アルゴリズムを提案する。
GESMRは解の集団とMRの集団を共進化させ、各MRは解群に割り当てられる。
同じ数の関数評価とオーバーヘッドのほとんどないGESMRは、以前のアプローチよりも早く、より良いソリューションに収束する。
論文 参考訳(メタデータ) (2022-04-11T01:08:26Z) - VNE Strategy based on Chaotic Hybrid Flower Pollination Algorithm
Considering Multi-criteria Decision Making [12.361459296815559]
仮想ネットワーク埋め込み (Virtual Network Embedding, VNE) 問題に対するハイブリッド花の受粉アルゴリズムの設計戦略について論じる。
クロス操作は、グローバル検索を完了させるためにクロスポリン化操作を置き換えるために使用される。
従来のフィットネスベースの選択戦略の補完としてライフサイクルメカニズムが導入されている。
論文 参考訳(メタデータ) (2022-02-07T00:57:00Z) - Direct Mutation and Crossover in Genetic Algorithms Applied to
Reinforcement Learning Tasks [0.9137554315375919]
本稿では、遺伝的アルゴリズム(GA)を用いて神経進化を適用し、最適な行動エージェントを生成するニューラルネットワークの重みを見つけることに焦点を当てる。
本稿では,データ効率と収束速度を初期実装と比較して改善する2つの新しい修正法を提案する。
論文 参考訳(メタデータ) (2022-01-13T07:19:28Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。