論文の概要: HeurAgenix: Leveraging LLMs for Solving Complex Combinatorial Optimization Challenges
- arxiv url: http://arxiv.org/abs/2506.15196v1
- Date: Wed, 18 Jun 2025 07:20:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.568473
- Title: HeurAgenix: Leveraging LLMs for Solving Complex Combinatorial Optimization Challenges
- Title(参考訳): HeurAgenix: 複雑な組合せ最適化問題の解決にLLMを活用する
- Authors: Xianliang Yang, Ling Zhang, Haolong Qian, Lei Song, Jiang Bian,
- Abstract要約: ヒューリスティックアルゴリズムは最適化(CO)問題を解く上で重要な役割を果たす。
HeurAgenixは、大規模言語モデル(LLM)を利用した2段階の超ヒューリスティックフレームワークである。
- 参考スコア(独自算出の注目度): 10.088078143772563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heuristic algorithms play a vital role in solving combinatorial optimization (CO) problems, yet traditional designs depend heavily on manual expertise and struggle to generalize across diverse instances. We introduce \textbf{HeurAgenix}, a two-stage hyper-heuristic framework powered by large language models (LLMs) that first evolves heuristics and then selects among them automatically. In the heuristic evolution phase, HeurAgenix leverages an LLM to compare seed heuristic solutions with higher-quality solutions and extract reusable evolution strategies. During problem solving, it dynamically picks the most promising heuristic for each problem state, guided by the LLM's perception ability. For flexibility, this selector can be either a state-of-the-art LLM or a fine-tuned lightweight model with lower inference cost. To mitigate the scarcity of reliable supervision caused by CO complexity, we fine-tune the lightweight heuristic selector with a dual-reward mechanism that jointly exploits singals from selection preferences and state perception, enabling robust selection under noisy annotations. Extensive experiments on canonical benchmarks show that HeurAgenix not only outperforms existing LLM-based hyper-heuristics but also matches or exceeds specialized solvers. Code is available at https://github.com/microsoft/HeurAgenix.
- Abstract(参考訳): ヒューリスティックアルゴリズムは組合せ最適化(CO)問題を解く上で重要な役割を果たすが、伝統的な設計は手作業の専門知識に大きく依存し、多様なインスタンスをまたいだ一般化に苦慮している。
本稿では,大言語モデル(LLM)を利用した2段階のハイパーヒューリスティックフレームワークである‘textbf{HeurAgenix}を紹介する。
ヒューリスティック進化段階において、HeurAgenix は LLM を利用して、種子ヒューリスティック解と高品質な解を比較し、再利用可能な進化戦略を抽出する。
問題解決において、LLMの知覚能力によって導かれる各問題状態に対して最も有望なヒューリスティックを動的に選択する。
柔軟性のために、このセレクタは最先端のLCMでも、推論コストの低い微調整軽量モデルであってもよい。
COの複雑さによる信頼性の高い監督の欠如を軽減するために,選択選好と状態認識から歌声を併用し,雑音の多いアノテーションの下で堅牢な選択を可能にする二重回帰機構により,軽量なヒューリスティックセレクタを微調整する。
標準ベンチマークの大規模な実験は、HeurAgenixが既存のLLMベースの超ヒューリスティックスを上回るだけでなく、特殊な解法よりも優れていることを示している。
コードはhttps://github.com/microsoft/HeurAgenix.comで入手できる。
関連論文リスト
- CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z) - Leveraging Large Language Models to Develop Heuristics for Emerging Optimization Problems [0.0]
組合せ最適化問題は、しばしば効率的な解を生成するアルゴリズムに依存する。
人工知能の最近の進歩は、進化の枠組みを通じて生成を自動化する可能性を実証している。
本研究では,問題固有の記述を組み込んだコンテキスト進化型ヒューリスティックスフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T10:22:49Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.082897040940447]
大きな言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において素晴らしい能力を持っています。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は,従来の個人レベルのアプローチと比較して,効率を著しく向上するコスト効率の高い集団レベルの最適化戦略を開発する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - MoE$^2$: Optimizing Collaborative Inference for Edge Large Language Models [43.83407446438587]
大規模言語モデル (LLM) は、幅広い自然言語処理タスクにおいて顕著な機能を示した。
エッジLLMのための新しい協調推論フレームワークである textitMixture-of-Edge-Experts (MoE$2$) を紹介する。
論文 参考訳(メタデータ) (2025-01-16T09:36:32Z) - Monte Carlo Tree Search for Comprehensive Exploration in LLM-Based Automatic Heuristic Design [33.58608225370497]
大規模言語モデル (LLM) に基づく自動設計 (AHD) 手法は、手作業による介入なしに高品質な設計を作成することを約束している。
本稿では,進化進化にモンテカルロ木探索(MCTS)を用いることを提案する。
論文 参考訳(メタデータ) (2025-01-15T06:00:50Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Optimising Calls to Large Language Models with Uncertainty-Based Two-Tier Selection [80.63946798650653]
決定は、より優れた性能を持つ大型LCMを使うか、より少ないコストで使用するかに重点を置いている。
我々は,LLMの世代間不確実性のみを意思決定基準として,より単純な解を提案する。
実験の結果、この単純な解はコストと性能を最適にバランスさせ、27の試験装置中25の既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-03T14:38:59Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - A Bi-Level Framework for Learning to Solve Combinatorial Optimization on
Graphs [91.07247251502564]
本稿では,2つの世界の長所を結合するハイブリッドな手法を提案する。この手法では,グラフを最適化する上層学習手法とバイレベルフレームワークを開発する。
このような二段階のアプローチは、元のハードCOでの学習を単純化し、モデルキャパシティの需要を効果的に軽減することができる。
論文 参考訳(メタデータ) (2021-06-09T09:18:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。