論文の概要: Evolutionary Dynamic Optimization and Machine Learning
- arxiv url: http://arxiv.org/abs/2310.08748v2
- Date: Mon, 30 Oct 2023 19:32:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 22:27:53.024051
- Title: Evolutionary Dynamic Optimization and Machine Learning
- Title(参考訳): 進化的動的最適化と機械学習
- Authors: Abdennour Boulesnane
- Abstract要約: 進化計算(Evolutionary Computation, EC)は、人工知能の強力な分野として出現し、徐々に発展する自然のメカニズムに触発されている。
これらの制限を克服するために、研究者は学習アルゴリズムと進化的手法を統合した。
この統合は、反復探索中にECアルゴリズムによって生成された貴重なデータを活用し、検索空間と人口動態に関する洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evolutionary Computation (EC) has emerged as a powerful field of Artificial
Intelligence, inspired by nature's mechanisms of gradual development. However,
EC approaches often face challenges such as stagnation, diversity loss,
computational complexity, population initialization, and premature convergence.
To overcome these limitations, researchers have integrated learning algorithms
with evolutionary techniques. This integration harnesses the valuable data
generated by EC algorithms during iterative searches, providing insights into
the search space and population dynamics. Similarly, the relationship between
evolutionary algorithms and Machine Learning (ML) is reciprocal, as EC methods
offer exceptional opportunities for optimizing complex ML tasks characterized
by noisy, inaccurate, and dynamic objective functions. These hybrid techniques,
known as Evolutionary Machine Learning (EML), have been applied at various
stages of the ML process. EC techniques play a vital role in tasks such as data
balancing, feature selection, and model training optimization. Moreover, ML
tasks often require dynamic optimization, for which Evolutionary Dynamic
Optimization (EDO) is valuable. This paper presents the first comprehensive
exploration of reciprocal integration between EDO and ML. The study aims to
stimulate interest in the evolutionary learning community and inspire
innovative contributions in this domain.
- Abstract(参考訳): 進化計算(Evolutionary Computation, EC)は、人工知能の強力な分野として出現し、徐々に発展する自然のメカニズムに触発されている。
しかし、ECアプローチは、停滞、多様性喪失、計算複雑性、人口の初期化、早期収束といった課題に直面していることが多い。
これらの限界を克服するために、研究者は学習アルゴリズムと進化的手法を統合した。
この統合は、反復探索中にECアルゴリズムによって生成された貴重なデータを活用し、検索空間と人口動態に関する洞察を提供する。
同様に、進化的アルゴリズムと機械学習(ML)の関係は相反するものであり、ECメソッドはノイズ、不正確、動的目的関数によって特徴づけられる複雑なMLタスクを最適化する特別な機会を提供する。
進化機械学習(EML)として知られるこれらのハイブリッド技術は、MLプロセスの様々な段階に適用されている。
EC技術はデータバランシング、機能選択、モデルのトレーニング最適化といったタスクにおいて重要な役割を果たす。
さらにMLタスクは、進化的動的最適化(EDO)が価値のある動的最適化を必要とすることが多い。
本稿では,EDOとMLの相互統合を包括的に検討する。
この研究の目的は、進化的学習コミュニティへの関心を刺激し、この分野における革新的な貢献を促すことである。
関連論文リスト
- Evolutionary Large Language Model for Automated Feature Transformation [25.956740176321897]
自動特徴変換のための進化的Large Language Model (LLM) フレームワークを提案する。
本フレームワークは,1)RLデータコレクタによるマルチポピュレーションデータベースの構築,2)大規模言語モデル(LLM)のシーケンス理解能力を活用した2つの部分から構成される。
提案手法の有効性と汎用性を実証的に示す。
論文 参考訳(メタデータ) (2024-05-25T12:27:21Z) - EmoDM: A Diffusion Model for Evolutionary Multi-objective Optimization [22.374325061635112]
この研究は、EmoDMと呼ばれる進化的多目的探索を学習できる拡散モデルを提案する。
EmoDMは、新たなMOPに対して、さらなる進化的な探索をすることなく、その逆拡散によって、一組の非支配的なソリューションを生成することができる。
実験により,探索性能と計算効率の両面から,EmoDMの競合性を示す。
論文 参考訳(メタデータ) (2024-01-29T07:41:44Z) - When large language models meet evolutionary algorithms [48.213640761641926]
事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキスト生成と進化の共通する集合性と方向性に動機づけられた本論文では,LLMとEAの並列性について述べる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - A Survey on Learnable Evolutionary Algorithms for Scalable
Multiobjective Optimization [0.0]
多目的進化アルゴリズム(MOEA)は、様々な多目的最適化問題(MOP)を解決するために採用されている。
しかし、これらの進歩的に改善されたMOEAは、必ずしも高度にスケーラブルで学習可能な問題解決戦略を備えていない。
異なるシナリオの下では、効果的に解決するための新しい強力なMOEAを設計する必要がある。
MOPをスケールアップするための機械学習技術で自身を操る学習可能なMOEAの研究は、進化計算の分野で広く注目を集めている。
論文 参考訳(メタデータ) (2022-06-23T08:16:01Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - Evolving Inborn Knowledge For Fast Adaptation in Dynamic POMDP Problems [5.23587935428994]
本稿では,POMDPにおける自己エンコーダの潜伏空間を利用した制御器を進化させるために,ニューラルネットワークの高度適応性を利用する。
生まれながらの知識とオンラインの可塑性の統合は、進化的でないメタ強化学習アルゴリズムと比較して、迅速な適応と性能の向上を可能にした。
論文 参考訳(メタデータ) (2020-04-27T14:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。