論文の概要: LLM-Based Instance-Driven Heuristic Bias In the Context of a Biased Random Key Genetic Algorithm
- arxiv url: http://arxiv.org/abs/2509.09707v1
- Date: Fri, 05 Sep 2025 21:46:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.831225
- Title: LLM-Based Instance-Driven Heuristic Bias In the Context of a Biased Random Key Genetic Algorithm
- Title(参考訳): LLMに基づくインスタンス駆動型ヒューリスティックバイアスのバイアス付きランダム鍵遺伝的アルゴリズムへの応用
- Authors: Camilo Chacón Sartori, Martín Isla Pino, Pedro Pinacho-Davidson, Christian Blum,
- Abstract要約: 本稿では,Large Language Models (LLMs) と Biased Random-Key Genetic Algorithm (BRKGA) を統合し,NP-hard Longest Run Subsequence 問題の解法を提案する。
我々のアプローチは、計算効率のよいメトリクスセットを共同設計し実装するための人間-LLM協調プロセスを導入することで、インスタンス駆動バイアスパラダイムを拡張します。
その結果, BRKGA+Llama-4-Maverickはベースラインよりも大幅に改良された。
- 参考スコア(独自算出の注目度): 0.9214658764451348
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Integrating Large Language Models (LLMs) within metaheuristics opens a novel path for solving complex combinatorial optimization problems. While most existing approaches leverage LLMs for code generation to create or refine specific heuristics, they often overlook the structural properties of individual problem instances. In this work, we introduce a novel framework that integrates LLMs with a Biased Random-Key Genetic Algorithm (BRKGA) to solve the NP-hard Longest Run Subsequence problem. Our approach extends the instance-driven heuristic bias paradigm by introducing a human-LLM collaborative process to co-design and implement a set of computationally efficient metrics. The LLM analyzes these instance-specific metrics to generate a tailored heuristic bias, which steers the BRKGA toward promising areas of the search space. We conduct a comprehensive experimental evaluation, including rigorous statistical tests, convergence and behavioral analyses, and targeted ablation studies, comparing our method against a standard BRKGA baseline across 1,050 generated instances of varying complexity. Results show that our top-performing hybrid, BRKGA+Llama-4-Maverick, achieves statistically significant improvements over the baseline, particularly on the most complex instances. Our findings confirm that leveraging an LLM to produce an a priori, instance-driven heuristic bias is a valuable approach for enhancing metaheuristics in complex optimization domains.
- Abstract(参考訳): メタヒューリスティックスにおける大規模言語モデル(LLM)の統合は、複雑な組合せ最適化問題を解決する新しい道を開く。
既存のほとんどのアプローチでは、コード生成にLLMを活用して特定のヒューリスティックを作成したり洗練させたりしていますが、個々の問題インスタンスの構造的特性を見落としています。
本研究では, NP-hard Longest Run Subsequence問題を解決するために, LLM と Biased Random-Key Genetic Algorithm (BRKGA) を統合した新しいフレームワークを提案する。
我々のアプローチは、計算効率のよいメトリクスのセットを共同設計し実装するための人間-LLM協調プロセスを導入することで、インスタンス駆動のヒューリスティックバイアスパラダイムを拡張します。
LLMは、これらのインスタンス固有のメトリクスを分析して、BRKGAを検索空間の有望な領域へ誘導する調整されたヒューリスティックバイアスを生成する。
我々は,厳密な統計検査,収束解析,行動解析を含む総合的な実験評価を行い,複雑性の異なる1,050件の標準的なBRKGAベースラインと比較した。
その結果, BRKGA+Llama-4-Maverickは, 最も複雑な事例において, ベースラインよりも統計的に有意な改善が得られた。
以上の結果から, LLM を用いた先進的, インスタンス駆動型ヒューリスティックバイアスは, 複雑な最適化領域におけるメタヒューリスティックスの向上に有用であることが確認された。
関連論文リスト
- DHEvo: Data-Algorithm Based Heuristic Evolution for Generalizable MILP Solving [34.70680594067826]
本稿では、代表インスタンスを反復的に選択し、対応するインスタンスを進化させるDHEvo(Data-algorithm co-evolution framework)を提案する。
初期インスタンス分布を用いて,データ-コードペアを同時に生成するLLMベースのマルチエージェントシステムを開発した。
これらのデータコードペアは、その適合度スコアに基づいて反復的に洗練され、問題クラス全体において最も効果的なものを特定する。
論文 参考訳(メタデータ) (2025-07-21T13:40:19Z) - STRCMP: Integrating Graph Structural Priors with Language Models for Combinatorial Optimization [18.162186876640764]
演算研究と理論計算機科学の中心となる組合せ最適化(CO)問題は、NPハードな性質のため、重要な計算課題を提示する。
本稿では,StRCMPを提案する。STRCMPは,構造先行を体系的に統合し,解の質と解解効率を向上する新しい構造対応アルゴリズム探索フレームワークである。
我々のフレームワークは、COインスタンスから構造埋め込みを抽出するグラフニューラルネットワーク(GNN)と、これらの埋め込みを条件としたLLMを組み合わせることで、ソルバ固有コードの形で高い性能のアルゴリズムを識別する。
論文 参考訳(メタデータ) (2025-05-22T15:37:42Z) - BLADE: Benchmark suite for LLM-driven Automated Design and Evolution of iterative optimisation heuristics [2.2485774453793037]
BLADEは、連続的なブラックボックス最適化コンテキストにおいてLLM駆動のAADメソッドをベンチマークするためのフレームワークである。
ベンチマーク問題とインスタンスジェネレータ、特殊化や情報エクスプロイトといった機能重視のテストを目的としたテキスト記述を統合する。
BLADEは、LCM駆動のAADアプローチを体系的に評価する、アウト・オブ・ザ・ボックスのソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-28T18:34:09Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - AdaptiveMDL-GenClust: A Robust Clustering Framework Integrating Normalized Mutual Information and Evolutionary Algorithms [0.0]
我々は,最小記述長(MDL)原理と遺伝的最適化アルゴリズムを組み合わせたロバストクラスタリングフレームワークを提案する。
このフレームワークは、初期クラスタリングソリューションを生成するためのアンサンブルクラスタリングアプローチから始まり、MDL誘導評価関数を使用して洗練され、遺伝的アルゴリズムによって最適化される。
実験の結果,従来のクラスタリング手法を一貫して上回り,精度の向上,安定性の向上,バイアス低減を実現している。
論文 参考訳(メタデータ) (2024-11-26T20:26:14Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [61.580419063416734]
最近の構造化学習手法のストリームは、様々な最適化問題に対する技術の実践的状態を改善している。
鍵となる考え方は、インスタンスを別々に扱うのではなく、インスタンス上の統計分布を利用することだ。
本稿では,最適化を容易にし,一般化誤差を改善するポリシを摂動することでリスクを円滑にする手法について検討する。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - On the Design and Analysis of LLM-Based Algorithms [74.7126776018275]
大規模言語モデル(LLM)はアルゴリズムのサブルーチンとして使用される。
LLMは素晴らしい経験的成功を収めた。
提案フレームワークは,LLMアルゴリズムの進歩を約束する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Sample-Efficient Multi-Agent RL: An Optimization Perspective [103.35353196535544]
一般関数近似に基づく汎用マルコフゲーム(MG)のためのマルチエージェント強化学習(MARL)について検討した。
汎用MGに対するマルチエージェントデカップリング係数(MADC)と呼ばれる新しい複雑性尺度を導入する。
我々のアルゴリズムは既存の研究に匹敵するサブリニアな後悔を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T01:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。