論文の概要: Graph-Supported Dynamic Algorithm Configuration for Multi-Objective Combinatorial Optimization
- arxiv url: http://arxiv.org/abs/2505.16471v1
- Date: Thu, 22 May 2025 09:53:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.208336
- Title: Graph-Supported Dynamic Algorithm Configuration for Multi-Objective Combinatorial Optimization
- Title(参考訳): 多目的組合せ最適化のためのグラフ対応動的アルゴリズム構成法
- Authors: Robbert Reijnen, Yaoxin Wu, Zaharah Bukhsh, Yingqian Zhang,
- Abstract要約: 本稿では,多目的進化アルゴリズムを構成する新しいグラフニューラルネットワーク(GNN)のDRLを提案する。
動的アルゴリズムの構成をマルコフ決定過程としてモデル化し、グラフによる対象空間における解の収束を表現する。
多様なMOCO課題に対する実験により,本手法は従来手法およびDRL方式のアルゴリズム構成法よりも有効性と適応性に優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 5.481047026874548
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep reinforcement learning (DRL) has been widely used for dynamic algorithm configuration, particularly in evolutionary computation, which benefits from the adaptive update of parameters during the algorithmic execution. However, applying DRL to algorithm configuration for multi-objective combinatorial optimization (MOCO) problems remains relatively unexplored. This paper presents a novel graph neural network (GNN) based DRL to configure multi-objective evolutionary algorithms. We model the dynamic algorithm configuration as a Markov decision process, representing the convergence of solutions in the objective space by a graph, with their embeddings learned by a GNN to enhance the state representation. Experiments on diverse MOCO challenges indicate that our method outperforms traditional and DRL-based algorithm configuration methods in terms of efficacy and adaptability. It also exhibits advantageous generalizability across objective types and problem sizes, and applicability to different evolutionary computation methods.
- Abstract(参考訳): 深部強化学習(DRL)は、特に進化的計算において、アルゴリズム実行中のパラメータの適応的な更新の恩恵を受ける動的アルゴリズムの構成に広く用いられている。
しかし、多目的組合せ最適化(MOCO)問題に対するアルゴリズム構成へのDRLの適用は、まだ明らかになっていない。
本稿では,多目的進化アルゴリズムを構成する新しいグラフニューラルネットワーク(GNN)のDRLを提案する。
我々は動的アルゴリズムの構成をマルコフ決定過程としてモデル化し、グラフによって対象空間における解の収束を表現する。
多様なMOCO課題に対する実験により,本手法は従来手法およびDRL方式のアルゴリズム構成法よりも有効性と適応性に優れていたことが示唆された。
また、目的の型や問題のサイズにまたがって有利な一般化性を示し、異なる進化的計算手法に適用可能である。
関連論文リスト
- RL-finetuning LLMs from on- and off-policy data with a single algorithm [53.70731390624718]
大規模言語モデルを微調整するための新しい強化学習アルゴリズム(AGRO)を提案する。
AGROは生成整合性の概念を利用しており、最適ポリシーはモデルの任意の世代間での整合性の概念を満たすと述べている。
サンプルベースの政策勾配による最適解を求めるアルゴリズムを導出し,その収束に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2025-03-25T12:52:38Z) - MOANA: Multi-Objective Ant Nesting Algorithm for Optimization Problems [21.80971564725773]
Multi-Objective Ant Nesting Algorithm (MOANA)は、Ant Nesting Evolutionary Algorithm (ANA)の新たな拡張である。
MOANAは、多目的シナリオにおけるスケーラビリティと多様性を改善することによって、従来の進化的アルゴリズムの重要な制限に対処する。
MOANAの溶接ビーム設計のような実世界のエンジニアリング最適化への適用性は、幅広い最適解を生成する能力を示している。
論文 参考訳(メタデータ) (2024-11-08T18:31:53Z) - Multiobjective Vehicle Routing Optimization with Time Windows: A Hybrid Approach Using Deep Reinforcement Learning and NSGA-II [52.083337333478674]
本稿では、時間窓を用いた多目的車両ルーティング問題(MOVRPTW)に対処するために、ウェイト・アウェア・ディープ・強化学習(WADRL)手法を提案する。
WADRLの結果を最適化するために非支配的ソート遺伝的アルゴリズム-II (NSGA-II) 法を用いる。
論文 参考訳(メタデータ) (2024-07-18T02:46:06Z) - Deep Reinforcement Learning for Dynamic Algorithm Selection: A
Proof-of-Principle Study on Differential Evolution [27.607740475924448]
本稿では,この課題を実現するための強化学習に基づく動的アルゴリズム選択フレームワークを提案する。
我々は、最適な動作を推測し、アルゴリズムの選択を確実にするために、洗練されたディープニューラルネットワークモデルを用いる。
基礎研究として、この枠組みを微分進化アルゴリズム群に適用する。
論文 参考訳(メタデータ) (2024-03-04T15:40:28Z) - Continuous Cartesian Genetic Programming based representation for
Multi-Objective Neural Architecture Search [12.545742558041583]
我々は、より複雑で高効率な畳み込みニューラルネットワーク(CNN)を設計するための新しいアプローチを提案する。
我々のアプローチは、ニューラルネットワーク探索(NAS)のためのカルテシアン遺伝的プログラミング(CGP)に基づく実ベースCNNとブロックチェーンCNNの表現を組み合わせたものである。
それらが考慮する探索空間の粒度が異なる2つの変種が導入された。
論文 参考訳(メタデータ) (2023-06-05T07:32:47Z) - Evolving Pareto-Optimal Actor-Critic Algorithms for Generalizability and
Stability [67.8426046908398]
汎用性と安定性は,実世界における強化学習(RL)エージェントの運用において重要な2つの目的である。
本稿では,アクター・クリティック・ロス関数の自動設計法であるMetaPGを提案する。
論文 参考訳(メタデータ) (2022-04-08T20:46:16Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。