論文の概要: irace-evo: Automatic Algorithm Configuration Extended With LLM-Based Code Evolution
- arxiv url: http://arxiv.org/abs/2511.14794v1
- Date: Sat, 15 Nov 2025 12:42:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.454393
- Title: irace-evo: Automatic Algorithm Configuration Extended With LLM-Based Code Evolution
- Title(参考訳): irace-evo: LLMベースのコード進化で拡張された自動アルゴリズム構成
- Authors: Camilo Chacón Sartori, Christian Blum,
- Abstract要約: irace-evoは、大きな言語モデル(LLM)を通じてコード進化を統合するiraceの拡張である
可変サイズバンドル問題(VSBPP)に対するCMSAメタヒューリスティックによるirace-evoの評価を行った。
- 参考スコア(独自算出の注目度): 1.1313571663082607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic algorithm configuration tools such as irace efficiently tune parameter values but leave algorithmic code unchanged. This paper introduces a first version of irace-evo, an extension of irace that integrates code evolution through large language models (LLMs) to jointly explore parameter and code spaces. The proposed framework enables multi-language support (e.g., C++, Python), reduces token consumption via progressive context management, and employs the Always-From-Original principle to ensure robust and controlled code evolution. We evaluate irace-evo on the Construct, Merge, Solve & Adapt (CMSA) metaheuristic for the Variable-Sized Bin Packing Problem (VSBPP). Experimental results show that irace-evo can discover new algorithm variants that outperform the state-of-the-art CMSA implementation while maintaining low computational and monetary costs. Notably, irace-evo generates competitive algorithmic improvements using lightweight models (e.g., Claude Haiku 3.5) with a total usage cost under 2 euros. These results demonstrate that coupling automatic configuration with LLM-driven code evolution provides a powerful, cost-efficient avenue for advancing heuristic design and metaheuristic optimization.
- Abstract(参考訳): iraceのような自動アルゴリズム設定ツールはパラメータ値を効率的に調整するが、アルゴリズムのコードは変わらない。
本稿では,大規模言語モデル(LLM)によるコード進化を統合し,パラメータとコード空間を共同で探索するirace-evoの最初のバージョンを紹介する。
提案したフレームワークは、多言語のサポート(例えば、C++、Python)を可能にし、プログレッシブコンテキスト管理によるトークンの消費を減らすとともに、Always-From-Originalの原則を用いて、堅牢で制御されたコードの進化を保証する。
可変サイズのBin Packing Problem (VSBPP) に対するCMSAメタヒューリスティックな構成, マージ, 解法, 適応に関するirace-evoの評価を行った。
実験の結果,irace-evoは計算コストと金銭コストを低く抑えつつ,最先端のCMSA実装よりも優れたアルゴリズム変異を発見できることがわかった。
特に、irace-evoは、軽量モデル(例えばClaude Haiku 3.5)を使用して、合計で2ユーロ以下で、競争力のあるアルゴリズム改善を生成する。
これらの結果から, LLMによるコード進化と自動構成の結合は, ヒューリスティックな設計とメタヒューリスティックな最適化を推し進める上で, 強力でコスト効率のよい方法であることが示された。
関連論文リスト
- Saber: An Efficient Sampling with Adaptive Acceleration and Backtracking Enhanced Remasking for Diffusion Language Model [98.35868970993232]
拡散言語モデル(DLM)は、支配的な自己回帰パラダイムに代わる強力で有望な選択肢として現れています。
コード生成における推論速度と出力品質の向上を実現するために,適応加速度を用いた効率的なサンプリングとバックトラック強化リマッシング(セイバー)を導入する。
論文 参考訳(メタデータ) (2025-10-20T23:38:12Z) - Experience-Guided Reflective Co-Evolution of Prompts and Heuristics for Automatic Algorithm Design [124.54166764570972]
組合せ最適化問題は伝統的に手作りのアルゴリズムで取り組まれている。
最近の進歩は、大規模言語モデルによる自動設計の可能性を強調している。
本稿では,自動アルゴリズム設計のためのPmpt and Heuristics (EvoPH) を用いた経験進化的リフレクティブ・ガイドを提案する。
論文 参考訳(メタデータ) (2025-09-29T09:24:09Z) - Dynamic Context-oriented Decomposition for Task-aware Low-rank Adaptation with Less Forgetting and Faster Convergence [131.41894248194995]
タスク認識方式でアダプタを初期化する新しい手法であるコンテキスト指向分解適応(CorDA)を提案する。
本手法は,タスク認識により,知識保存モード (KPM) と命令レビューモード (IPM) の2つのオプション適応モードを実現する。
論文 参考訳(メタデータ) (2025-06-16T07:55:14Z) - MERGE$^3$: Efficient Evolutionary Merging on Consumer-grade GPUs [14.791853860278914]
MERGE$3$は、単一のGPU上での進化的マージを可能にする効率的なフレームワークである。
MerGE$3$は、評価のためのデータセットの削減、アイテム応答理論(IRT)を用いたモデル能力の推定、IRTベースのパフォーマンス推定器による最適なマージの進化によってこれを達成します。
提案手法は,言語間の知識を変換し,計算オーバーヘッドを大幅に低減した,最先端の多言語・多言語統合を実現する。
論文 参考訳(メタデータ) (2025-02-09T14:24:16Z) - EvoRL: A GPU-accelerated Framework for Evolutionary Reinforcement Learning [24.389896398264202]
我々はGPUアクセラレーションに最適化された最初のエンドツーエンドEvoRLフレームワークである$texttt$textbfEvoRL$$を紹介した。
このフレームワークは、環境シミュレーションやECプロセスを含む、アクセラレーター上のトレーニングパイプライン全体を実行する。
論文 参考訳(メタデータ) (2025-01-25T08:31:07Z) - COrAL: Order-Agnostic Language Modeling for Efficient Iterative Refinement [80.18490952057125]
反復改良は、複雑なタスクにおける大規模言語モデル(LLM)の能力を高める効果的なパラダイムとして登場した。
我々はこれらの課題を克服するために、コンテキストワイズ順序非依存言語モデリング(COrAL)を提案する。
当社のアプローチでは、管理可能なコンテキストウィンドウ内で複数のトークン依存関係をモデル化しています。
論文 参考訳(メタデータ) (2024-10-12T23:56:19Z) - Extreme Compression of Large Language Models via Additive Quantization [59.3122859349777]
我々のアルゴリズムは、AQLMと呼ばれ、情報検索のための古典的な加算量子化(AQ)アプローチを一般化する。
トークン生成のためのAQLMの高速GPUおよびCPU実装を提供しており、最適化されたFP16実装を高速にマッチングまたは性能良くすることができる。
論文 参考訳(メタデータ) (2024-01-11T18:54:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。