論文の概要: LLaMEA-SAGE: Guiding Automated Algorithm Design with Structural Feedback from Explainable AI
- arxiv url: http://arxiv.org/abs/2601.21511v1
- Date: Thu, 29 Jan 2026 10:27:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.732162
- Title: LLaMEA-SAGE: Guiding Automated Algorithm Design with Structural Feedback from Explainable AI
- Title(参考訳): LLaMEA-SAGE: 説明可能なAIからの構造化フィードバックによる自動アルゴリズム設計の誘導
- Authors: Niki van Stein, Anna V. Kononova, Lars Kotthoff, Thomas Bäck,
- Abstract要約: 大規模言語モデルは、自然言語プロンプトから直接最適化アルゴリズムを生成することにより、自動アルゴリズム設計(AAD)を可能にした。
生成したアルゴリズムの抽象構文木から抽出したグラフ理論および複雑性特徴から構築したフィードバックを用いてAADを誘導する機構を提案する。
提案手法は,小制御実験においてバニラLLaMEAよりも高速に動作可能であることを示す。
- 参考スコア(独自算出の注目度): 4.440668887299803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models have enabled automated algorithm design (AAD) by generating optimization algorithms directly from natural-language prompts. While evolutionary frameworks such as LLaMEA demonstrate strong exploratory capabilities across the algorithm design space, their search dynamics are entirely driven by fitness feedback, leaving substantial information about the generated code unused. We propose a mechanism for guiding AAD using feedback constructed from graph-theoretic and complexity features extracted from the abstract syntax trees of the generated algorithms, based on a surrogate model learned over an archive of evaluated solutions. Using explainable AI techniques, we identify features that substantially affect performance and translate them into natural-language mutation instructions that steer subsequent LLM-based code generation without restricting expressivity. We propose LLaMEA-SAGE, which integrates this feature-driven guidance into LLaMEA, and evaluate it across several benchmarks. We show that the proposed structured guidance achieves the same performance faster than vanilla LLaMEA in a small controlled experiment. In a larger-scale experiment using the MA-BBOB suite from the GECCO-MA-BBOB competition, our guided approach achieves superior performance compared to state-of-the-art AAD methods. These results demonstrate that signals derived from code can effectively bias LLM-driven algorithm evolution, bridging the gap between code structure and human-understandable performance feedback in automated algorithm design.
- Abstract(参考訳): 大規模言語モデルは、自然言語プロンプトから直接最適化アルゴリズムを生成することにより、自動アルゴリズム設計(AAD)を可能にした。
LLaMEAのような進化的フレームワークはアルゴリズム設計の領域で強力な探索能力を示しているが、その探索力学は適合性フィードバックによって完全に駆動され、生成したコードに関する重要な情報が未使用のまま残されている。
本稿では,提案アルゴリズムの抽象構文木から抽出したグラフ理論および複雑性特徴から構築したフィードバックを用いてAADを誘導する機構について,評価された解のアーカイブ上で学習した代理モデルに基づいて提案する。
説明可能なAI技術を用いて、性能に実質的に影響を及ぼす特徴を特定し、それを自然言語の突然変異命令に変換することで、表現性を制限することなく、後続のLLMベースのコード生成を推し進める。
本稿では,この特徴駆動型ガイダンスをLLaMEAに統合したLLaMEA-SAGEを提案し,複数のベンチマークで評価する。
提案手法は,小制御実験においてバニラLLaMEAよりも高速に動作可能であることを示す。
GECCO-MA-BBOBコンペティションのMA-BBOBスイートを用いた大規模実験において,本手法は最先端のAAD手法と比較して優れた性能を示した。
これらの結果は,自動アルゴリズム設計において,コード構造と人間の理解可能な性能フィードバックのギャップを埋めることで,LLM駆動型アルゴリズムの進化を効果的にバイアスすることができることを示す。
関連論文リスト
- From Performance to Understanding: A Vision for Explainable Automated Algorithm Design [2.780126715305372]
この記事では、次のブレークスルーは、さらなる自動化ではなく、理解と自動化の結合によるものだ、と論じる。
3つの柱上に構築された説明可能な自動アルゴリズム設計のビジョンを概説する。
これらの要素は、発見、説明、一般化が互いに強化される閉知識ループを形成する。
論文 参考訳(メタデータ) (2025-11-20T10:08:40Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - Behaviour Space Analysis of LLM-driven Meta-heuristic Discovery [2.0958996366233094]
メタヒューリスティックな最適化アルゴリズムを大規模言語モデル駆動型アルゴリズム探索法で自動生成する。
我々は、BBOBベンチマークスイートから10個の関数に対して評価したブラックボックス最適化を反復的に進化させる。
探索,搾取,収束,停滞といった行動指標を各実行毎に記録し,これらを視覚的投影とネットワークベースの表現を通じて分析する。
論文 参考訳(メタデータ) (2025-07-04T14:19:39Z) - Designing Algorithms Empowered by Language Models: An Analytical Framework, Case Studies, and Insights [86.06371692309972]
本研究では,大規模言語モデル(LLM)に基づくアルゴリズムの設計と解析のための分析フレームワークを提案する。
提案する枠組みは頭痛を緩和する試みとして機能する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z) - LLaMEA: A Large Language Model Evolutionary Algorithm for Automatically Generating Metaheuristics [0.023020018305241332]
本稿では,Large Language Model Evolutionary Algorithm (LLaMEA) フレームワークを紹介する。
一連の基準とタスク定義(検索空間)が与えられた後、LLaMEAは反復的にアルゴリズムを生成し、変更し、選択する。
我々は,このフレームワークを用いて,新しいブラックボックスメタヒューリスティック最適化アルゴリズムを自動生成する方法を示す。
論文 参考訳(メタデータ) (2024-05-30T15:10:59Z) - Accelerating LLaMA Inference by Enabling Intermediate Layer Decoding via
Instruction Tuning with LITE [62.13435256279566]
大規模言語モデル(LLM)は、様々な自然言語タスクで顕著なパフォーマンスを実現している。
しかし、その大きなサイズは推論を遅く、計算的に高価にする。
最終層の生成能力に影響を与えることなく、これらの層が「良い」生成能力を得ることができることを示す。
論文 参考訳(メタデータ) (2023-10-28T04:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。