論文の概要: EALG: Evolutionary Adversarial Generation of Language Model-Guided Generators for Combinatorial Optimization
- arxiv url: http://arxiv.org/abs/2506.02594v1
- Date: Tue, 03 Jun 2025 08:13:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.47706
- Title: EALG: Evolutionary Adversarial Generation of Language Model-Guided Generators for Combinatorial Optimization
- Title(参考訳): EALG:組合せ最適化のための言語モデル誘導発電機の進化的逆生成
- Authors: Ruibo Duan, Yuxin Liu, Xinyao Dong, Chenglin Fan,
- Abstract要約: EALG(Evolutionary Adrial Generation of Language Model Generators)は,大規模言語モデル(LLM)を用いた最適化問題インスタンスとその対応解法を共進化させる新しいフレームワークである。
EALGは、動的にインスタンス生成手順を進化させ、ますます難しい問題を生み出すとともに、アルゴリズム構造によって導かれるLLMとの相互作用を通じて、対向アルゴリズムを同時に適応させる。
この研究は、インスタンス生成とソルバ設計を統合した最適化のための新しいパラダイムを探求し、その結果、最先端のパフォーマンスを実現した。
- 参考スコア(独自算出の注目度): 5.575239967310329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating challenging instances is crucial for the evaluation and advancement of combinatorial optimization solvers. In this work, we introduce EALG (Evolutionary Adversarial Generation of Language Model-Guided Generators), a novel framework that automates the co-evolution of optimization problem instances and their corresponding heuristic solvers using large language models (LLMs). EALG leverages a mutation-based adversarial approach that dynamically evolves instance generation procedures to create increasingly difficult problems, while simultaneously synthesizing adaptive heuristic algorithms through interactions with LLMs guided by algorithmic structure. Unlike existing approaches that focus solely on static benchmark creation or manual solver design, EALG provides a seamless pipeline from instance generation to solver synthesis. Experimental results demonstrate that EALG generates significantly harder instances than current benchmarks, and its synthesized solvers generalize effectively across a broad spectrum of combinatorial tasks. This work explores a new paradigm for combinatorial optimization that integrates instance generation with solver design, resulting in state-of-the-art performance.
- Abstract(参考訳): 組合せ最適化解法の評価と進歩には、挑戦的なインスタンスの生成が不可欠である。
本研究では,大規模言語モデル(LLM)を用いた最適化問題インスタンスとそれに対応するヒューリスティックな解法の共進化を自動化する新しいフレームワークであるEALG(Evolutionary Adversarial Generation of Language Model-Guided Generators)を紹介する。
EALGは、動的にインスタンス生成手順を進化させ、ますます難しい問題を生み出すとともに、アルゴリズム構造によって導かれるLLMとの相互作用を通じて適応的ヒューリスティックアルゴリズムを同時に合成する突然変異ベースの敵対的アプローチを利用する。
静的ベンチマーク作成や手動ソルバ設計にのみフォーカスする既存のアプローチとは異なり、EALGはインスタンス生成からソルバ合成までのシームレスなパイプラインを提供する。
実験により、EALGは現在のベンチマークよりもかなり難しいインスタンスを生成し、その合成されたソルバは、幅広い組合せタスクを効果的に一般化することを示した。
この研究は、インスタンス生成とソルバ設計を統合した組合せ最適化のための新しいパラダイムを探求し、その結果、最先端のパフォーマンスを実現した。
関連論文リスト
- CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z) - Combinatorial Optimization via LLM-driven Iterated Fine-tuning [47.66752049943335]
我々は,Large Language Models (LLMs) を利用して,柔軟で文脈に依存しない制約を最適化に統合する新しい方法を提案する。
本フレームワークは, 局所的制約と厳密なグローバル最適化とのバランスを, ベースラインサンプリング法よりも効率的に行う。
論文 参考訳(メタデータ) (2025-03-10T04:58:18Z) - Deep Insights into Automated Optimization with Large Language Models and Evolutionary Algorithms [3.833708891059351]
大きな言語モデル(LLM)と進化的アルゴリズム(EA)は、制限を克服し、最適化をより自動化するための有望な新しいアプローチを提供する。
LLMは最適化戦略の生成、洗練、解釈が可能な動的エージェントとして機能する。
EAは進化作用素を通して、複雑な解空間を効率的に探索する。
論文 参考訳(メタデータ) (2024-10-28T09:04:49Z) - Large Language Model Aided Multi-objective Evolutionary Algorithm: a Low-cost Adaptive Approach [4.442101733807905]
本研究では,大規模言語モデル(LLM)と従来の進化的アルゴリズムを組み合わせることで,アルゴリズムの探索能力と一般化性能を向上させる新しいフレームワークを提案する。
適応機構内の補助的評価関数と自動的プロンプト構築を活用し, LLM の利用を柔軟に調整する。
論文 参考訳(メタデータ) (2024-10-03T08:37:02Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - A Pareto-optimal compositional energy-based model for sampling and
optimization of protein sequences [55.25331349436895]
深層生成モデルは、生命科学における逆問題に対する一般的な機械学習ベースのアプローチとして登場した。
これらの問題は、データ分布の学習に加えて、興味のある複数の特性を満たす新しい設計をサンプリングする必要があることが多い。
論文 参考訳(メタデータ) (2022-10-19T19:04:45Z) - AdaLead: A simple and robust adaptive greedy search algorithm for
sequence design [55.41644538483948]
我々は、容易で、拡張性があり、堅牢な進化的欲求アルゴリズム(AdaLead)を開発した。
AdaLeadは、様々な生物学的に動機づけられたシーケンスデザインの課題において、アートアプローチのより複雑な状態を克服する、驚くほど強力なベンチマークである。
論文 参考訳(メタデータ) (2020-10-05T16:40:38Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。