論文の概要: Large Language Model-Driven Full-Component Evolution of Adaptive Large Neighborhood Search
- arxiv url: http://arxiv.org/abs/2603.06996v1
- Date: Sat, 07 Mar 2026 02:41:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.590362
- Title: Large Language Model-Driven Full-Component Evolution of Adaptive Large Neighborhood Search
- Title(参考訳): 適応型大近傍探索の大規模言語モデル駆動完全成分進化
- Authors: Shaohua Yu, Tianyu Chen, Linyan Liu,
- Abstract要約: 本稿では、ALNSを分離し、すべてのコンポーネントを自動再構築する閉ループ・大規模言語モデル駆動進化フレームワークを提案する。
ALNSを破壊、修復、オペレータの選択、重み付け、初期ソリューション構築、受け入れルール、破壊段階制御という7つの重要なモジュールに分割し、各モジュールを専用のタスクで進化させます。
- 参考スコア(独自算出の注目度): 10.045051163296877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adaptive Large Neighborhood Search (ALNS) is a prominent metaheuristic and a widely adopted approach for production and logistics optimization. However, it has long relied on hand-crafted components built on expert experience, which makes development slow and costly to adapt to new problems. This paper proposes a closed-loop, large-language-model-driven evolutionary framework that decouples ALNS and automatically rebuilds all of its components. We break ALNS into seven key modules: destroy, repair, operator selection, weight update, initial solution construction, acceptance rule, and destroy-rate control, and evolve each module through a dedicated task. By incorporating the MAP-Elites mechanism, the framework maintains a multi-dimensional elite archive to simultaneously drive the evolution of solution quality and strategic diversity. On TSPLIB benchmarks, the evolved algorithms consistently outperform optimized classic ALNS baselines under both fixed-iteration and fixed-time limits. The gains are especially clear on large-scale instances, where the average optimality gap drops from 3.18% to 0.74%. Code analysis also uncovers several counterintuitive yet meaningful design patterns that emerged naturally during evolution, offering practical and theoretical insights for future ALNS design. Finally, comparisons across multiple language models highlight clear differences in their ability to support evolutionary algorithm design, helping guide model selection for real-world engineering use.
- Abstract(参考訳): Adaptive Large Neighborhood Search (ALNS) は、生産と物流の最適化のための顕著なメタヒューリスティックであり、広く採用されているアプローチである。
しかし、これは長い間、専門家の経験に基づく手作りのコンポーネントに依存しており、新しい問題に適応するために開発を遅く、コストがかかる。
本稿では、ALNSを分離し、すべてのコンポーネントを自動再構築する閉ループ・大規模言語モデル駆動進化フレームワークを提案する。
ALNSを破壊、修復、オペレータの選択、重み付け、初期ソリューション構築、受け入れルール、破壊段階制御という7つの重要なモジュールに分割し、各モジュールを専用のタスクで進化させます。
MAP-Elitesのメカニズムを取り入れることで、多次元のエリートアーカイブを維持し、ソリューションの品質と戦略的多様性の進化を同時に推進する。
TSPLIBベンチマークでは、進化したアルゴリズムは、固定時間と固定時間の両方の制限の下で最適化された古典的ALNSベースラインを一貫して上回っている。
特に大規模インスタンスでは、平均最適性ギャップが3.18%から0.74%に低下する。
コード分析はまた、進化中に自然に現れたいくつかの反直感的かつ有意義なデザインパターンを明らかにし、将来のALNS設計に実践的および理論的洞察を提供する。
最後に、複数の言語モデルの比較は、進化的アルゴリズム設計をサポートする能力の明確な違いを強調し、実際のエンジニアリング使用のためのモデル選択のガイドを支援する。
関連論文リスト
- EvoX: Meta-Evolution for Automated Discovery [115.89434419482797]
EvoXは、独自の進化過程を最適化する適応進化法である。
進捗に応じて、事前のソリューションが選択され、どのように変化するかを継続的に更新する。
AlphaEvolve, OpenEvolve, GEPA, ShinkaEvolveなどの既存のAI駆動の進化的手法を、タスクの大部分で上回っている。
論文 参考訳(メタデータ) (2026-02-26T18:54:41Z) - K-Search: LLM Kernel Generation via Co-Evolving Intrinsic World Model [57.440609834690385]
既存のアプローチでは、進化ループ内の高速コードジェネレータとして、LLM(Large Language Models)を扱います。
我々は,共進化的世界モデルによる検索を提案し,この手法に基づいてK-Searchを構築する。
GQA, MLA, MoE カーネルを含む多種多様な複雑なカーネル上で K-Search を評価する。
論文 参考訳(メタデータ) (2026-02-22T11:06:22Z) - Large Language Model Assisted Automated Algorithm Generation and Evolution via Meta-black-box optimization [9.184788298623062]
AwesomeDEは大規模言語モデル(LLM)をメタ最適化の戦略として活用し、人間の介入なしに制約付き進化アルゴリズムの更新ルールを生成する。
素早い設計と反復的な改良を含む重要なコンポーネントは、設計品質への影響を判断するために体系的に分析される。
実験の結果,提案手法は計算効率と解の精度で既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-09-16T17:02:24Z) - Building Coding Agents via Entropy-Enhanced Multi-Turn Preference Optimization [13.271737599933147]
本稿では,エントロピー強化フレームワークであるEntroPOを紹介し,既存の優先最適化アルゴリズムをマルチターンツール支援設定に適用する。
EntroPOは、さまざまな家族やサイズのモデル群を微調整することで検証する。
swebenchのリーダーボードでは、オープンウェイトモデルの間で、新しい最先端の結果が確立される。
論文 参考訳(メタデータ) (2025-09-15T20:36:19Z) - Deep Reinforcement Learning-Assisted Component Auto-Configuration of Differential Evolution Algorithm for Constrained Optimization: A Foundation Model [12.957830806430733]
我々は、制約付き最適化問題(COP)に対処する微分進化法(DE)アルゴリズムにおいて、自動コンポーネント構成のための新しいフレームワークを導入する。
SuperDEは、ゼロショットで見えない問題に対して、最適な世代ごとの設定を推奨できる。
実験の結果,SuperDEはベンチマークテストスイートにおいて既存の最先端アルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-09-14T00:14:40Z) - CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z) - STAR: Synthesis of Tailored Architectures [61.080157488857516]
本稿では, 適合型アーキテクチャ (STAR) の新規な合成手法を提案する。
提案手法は線形入力可変系の理論に基づく新しい探索空間を結合し,階層的な数値エンコーディングをアーキテクチャゲノムに支持する。STARゲノムは,複数のモデル品質と効率の指標に最適化するために,勾配のない進化的アルゴリズムで自動的に精製・組換えされる。
STARを用いて、多種多様な計算単位と相互接続パターンを活用し、品質、パラメータサイズ、および自動回帰言語モデリングのための推論キャッシュのフロンティアにおける高度に最適化されたトランスフォーマーとストライプハイブリッドモデルを改善する。
論文 参考訳(メタデータ) (2024-11-26T18:42:42Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。