論文の概要: An Evolutionary Framework for Automatic Optimization Benchmark Generation via Large Language Models
- arxiv url: http://arxiv.org/abs/2601.12723v1
- Date: Mon, 19 Jan 2026 04:58:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.75958
- Title: An Evolutionary Framework for Automatic Optimization Benchmark Generation via Large Language Models
- Title(参考訳): 大規模言語モデルによる自動最適化ベンチマーク生成のための進化的フレームワーク
- Authors: Yuhiro Ono, Tomohiro Harada, Yukiya Miura,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を生成演算子として活用する進化的自動ベンチマーク生成フレームワークを提案する。
このフレームワークでは、LLMはフレキシブルで表現力のある表現空間内でベンチマーク問題を生成し、進化させる進化的演算子として機能する。
実験結果から, LLM-EBGは, 対象アルゴリズムが80%以上の試験において, 常に比較アルゴリズムより優れるベンチマーク問題を生成することができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization benchmarks play a fundamental role in assessing algorithm performance; however, existing artificial benchmarks often fail to capture the diversity and irregularity of real-world problem structures, while benchmarks derived from real-world problems are costly and difficult to construct. To address these challenges, we propose an evolutionary automatic benchmark generation framework that leverages a large language model (LLM) as a generative operator, termed the LLM-driven evolutionary benchmark generator (LLM-EBG). In this framework, the LLM serves as an evolutionary operator that generates and evolves benchmark problems within a flexible, expressive representation space. As a case study, we generate unconstrained single-objective continuous minimization problems represented as mathematical expressions designed to induce significant performance differences between a genetic algorithm (GA) and differential evolution (DE). Experimental results show that LLM-EBG successfully produces benchmark problems in which the designated target algorithm consistently outperforms the comparative algorithm in more than 80\% of trials. Furthermore, exploratory landscape analysis reveals that benchmarks favoring GA are highly sensitive to variable scaling, demonstrating that the proposed framework can generate problems with distinct geometric characteristics that reflect the intrinsic search behaviors of different optimization algorithms.
- Abstract(参考訳): 最適化ベンチマークはアルゴリズムの性能を評価する上で基本的な役割を果たすが、既存の人工ベンチマークは実世界の問題構造の多様性や不規則性を捉えるのに失敗することが多い。
これらの課題に対処するため,LLM-driven Evolution benchmark generator (LLM-EBG) と呼ばれる,大規模言語モデル(LLM)を生成演算子として活用する進化的自動ベンチマーク生成フレームワークを提案する。
このフレームワークでは、LLMはフレキシブルで表現力のある表現空間内でベンチマーク問題を生成し、進化させる進化的演算子として機能する。
ケーススタディでは,遺伝的アルゴリズム(GA)と差分進化(DE)の有意な性能差を誘導する数学的表現として表現された,制約のない単目的連続最小化問題を生成する。
実験結果から, LLM-EBGは, 80倍以上の試行において, 指定された目標アルゴリズムが常に比較アルゴリズムより優れるベンチマーク問題を生成することができた。
さらに、探索ランドスケープ解析により、GAを優先するベンチマークは、変動スケーリングに非常に敏感であることが明らかとなり、提案フレームワークは、異なる最適化アルゴリズムの固有の探索挙動を反映した、異なる幾何学的特徴を持つ問題を生成できることが証明された。
関連論文リスト
- GLOW: Graph-Language Co-Reasoning for Agentic Workflow Performance Prediction [51.83437071408662]
本稿では,AW性能予測のための統合フレームワークGLOWを提案する。
GLOWは、GNNのグラフ構造モデリング能力とLLMの推論能力を組み合わせる。
FLORA-Benchの実験では、GLOWは予測精度とランキングユーティリティにおいて最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-12-11T13:30:46Z) - ORGEval: Graph-Theoretic Evaluation of LLMs in Optimization Modeling [18.8099769877788]
ORGEvalは線形および混合整数線形プログラムの定式化における大規模言語モデルの能力を評価するためのグラフ理論評価フレームワークである。
ORGEvalはモデル等価性の検出に成功し、ランダムなパラメータ構成で100%一貫した結果が得られることを示す。
この結果から,全てのLLMにおいて最適化モデリングは依然として困難であるが,DeepSeek-V3とClaude-Opus-4は直接的プロンプト下では最高の精度を達成できることがわかった。
論文 参考訳(メタデータ) (2025-10-31T16:35:52Z) - Graph Neural Network Assisted Genetic Algorithm for Structural Dynamic Response and Parameter Optimization [1.5383027029023142]
質量(m)、剛性(k)、減衰係数(c)などの構造パラメータの最適化は、効率的で弾力性があり安定した構造を設計するのに重要である。
本研究では,グラフニューラルネットワーク(GNN)サロゲートモデルと遺伝的アルゴリズム(GA)を統合し,これらの課題を克服するハイブリッドデータ駆動フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-26T21:14:59Z) - Dynamic Generation of Multi-LLM Agents Communication Topologies with Graph Diffusion Models [99.85131798240808]
我々はtextitGuided Topology Diffusion (GTD) と呼ばれる新しい生成フレームワークを導入する。
条件付き離散グラフ拡散モデルにインスパイアされたGTD式は、反復的な構成過程としてトポロジー合成を行う。
各ステップで生成は、多目的報酬を予測する軽量プロキシモデルによって制御される。
実験により、GTDは高いタスク適応性、スパース、効率的な通信トポロジを生成できることが示されている。
論文 参考訳(メタデータ) (2025-10-09T05:28:28Z) - Behaviour Space Analysis of LLM-driven Meta-heuristic Discovery [2.0958996366233094]
メタヒューリスティックな最適化アルゴリズムを大規模言語モデル駆動型アルゴリズム探索法で自動生成する。
我々は、BBOBベンチマークスイートから10個の関数に対して評価したブラックボックス最適化を反復的に進化させる。
探索,搾取,収束,停滞といった行動指標を各実行毎に記録し,これらを視覚的投影とネットワークベースの表現を通じて分析する。
論文 参考訳(メタデータ) (2025-07-04T14:19:39Z) - EALG: Evolutionary Adversarial Generation of Language Model-Guided Generators for Combinatorial Optimization [5.575239967310329]
EALG(Evolutionary Adrial Generation of Language Model Generators)は,大規模言語モデル(LLM)を用いた最適化問題インスタンスとその対応解法を共進化させる新しいフレームワークである。
EALGは、動的にインスタンス生成手順を進化させ、ますます難しい問題を生み出すとともに、アルゴリズム構造によって導かれるLLMとの相互作用を通じて、対向アルゴリズムを同時に適応させる。
この研究は、インスタンス生成とソルバ設計を統合した最適化のための新しいパラダイムを探求し、その結果、最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2025-06-03T08:13:41Z) - Large Language Model-Based Benchmarking Experiment Settings for Evolutionary Multi-Objective Optimization [5.072077366588175]
本研究では,大規模言語モデルにおけるEMOアルゴリズムの性能比較に関する暗黙の仮定について検討する。
LLMは古典的なベンチマーク設定をしばしば提案する。
論文 参考訳(メタデータ) (2025-02-28T14:46:34Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - Evolving Pareto-Optimal Actor-Critic Algorithms for Generalizability and
Stability [67.8426046908398]
汎用性と安定性は,実世界における強化学習(RL)エージェントの運用において重要な2つの目的である。
本稿では,アクター・クリティック・ロス関数の自動設計法であるMetaPGを提案する。
論文 参考訳(メタデータ) (2022-04-08T20:46:16Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。