論文の概要: DRAGON: LLM-Driven Decomposition and Reconstruction Agents for Large-Scale Combinatorial Optimization
- arxiv url: http://arxiv.org/abs/2601.06502v1
- Date: Sat, 10 Jan 2026 09:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.849081
- Title: DRAGON: LLM-Driven Decomposition and Reconstruction Agents for Large-Scale Combinatorial Optimization
- Title(参考訳): DRAGON:大規模組合せ最適化のためのLCM駆動分解・再構成エージェント
- Authors: Shengkai Chen, Zhiguang Cao, Jianan Zhou, Yaoxin Wu, Senthilnath Jayavelu, Zhuoyi Lin, Xiaoli Li, Shili Xiang,
- Abstract要約: 大規模言語モデル(LLM)は、最近、プロンプトベースの戦略を通じて最適化問題(COP)に取り組むことを約束している。
メタヒューリスティック設計とLLM推論の長所を組み合わせたDRAGONを提案する。
最適化環境と継続的に対話し、適応的なエクスペリエンスメモリを活用することで、エージェントはフィードバックから反復的に学習する。
- 参考スコア(独自算出の注目度): 40.88623618289683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have recently shown promise in addressing combinatorial optimization problems (COPs) through prompt-based strategies. However, their scalability and generalization remain limited, and their effectiveness diminishes as problem size increases, particularly in routing problems involving more than 30 nodes. We propose DRAGON, which stands for Decomposition and Reconstruction Agents Guided OptimizatioN, a novel framework that combines the strengths of metaheuristic design and LLM reasoning. Starting from an initial global solution, DRAGON autonomously identifies regions with high optimization potential and strategically decompose large-scale COPs into manageable subproblems. Each subproblem is then reformulated as a concise, localized optimization task and solved through targeted LLM prompting guided by accumulated experiences. Finally, the locally optimized solutions are systematically reintegrated into the original global context to yield a significantly improved overall outcome. By continuously interacting with the optimization environment and leveraging an adaptive experience memory, the agents iteratively learn from feedback, effectively coupling symbolic reasoning with heuristic search. Empirical results show that, unlike existing LLM-based solvers limited to small-scale instances, DRAGON consistently produces feasible solutions on TSPLIB, CVRPLIB, and Weibull-5k bin packing benchmarks, and achieves near-optimal results (0.16% gap) on knapsack problems with over 3M variables. This work shows the potential of feedback-driven language agents as a new paradigm for generalizable and interpretable large-scale optimization.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近、プロンプトベースの戦略による組合せ最適化問題(COP)に対処する上で、有望であることが示されている。
しかし、そのスケーラビリティと一般化は限定的であり、特に30ノード以上のルーティング問題において、問題のサイズが大きくなるにつれてその効果は低下する。
メタヒューリスティック設計の強みとLCM推論を組み合わせた新しいフレームワークであるDRAGONを提案する。
DRAGONは、初期グローバルソリューションから、高い最適化ポテンシャルを持つ領域を自律的に識別し、大規模COPを管理可能なサブプロブレムに戦略的に分解する。
それぞれのサブプロブレムは、簡潔で局所的な最適化タスクとして再構成され、蓄積された経験によって導かれる目標LLMによって解決される。
最後に、局所最適化されたソリューションは、元のグローバルコンテキストに体系的に再統合され、全体的な結果が大幅に改善される。
最適化環境と継続的に対話し、適応的な体験記憶を活用することにより、エージェントはフィードバックから反復的に学習し、記号推論とヒューリスティック検索を効果的に結合する。
実験結果から, DRAGON は TSPLIB, CVRPLIB, Weibull-5k ビンパッキングベンチマークにおいて, 小規模なインスタンスに限定した既存の LLM ベースの解法と異なり, 3M 変数以上のknapsack 問題に対して, ほぼ最適 (0.16% の差) が得られることがわかった。
本研究は,大規模最適化のための新たなパラダイムとして,フィードバック駆動型言語エージェントの可能性を示す。
関連論文リスト
- Optimizing Prompt Sequences using Monte Carlo Tree Search for LLM-Based Optimization [20.44067161623662]
大規模言語モデル(LLM)は、コード生成と構造化推論において顕著な能力を示した。
本稿では,モンテカルロ木探索によって導かれる逐次決定過程として,選択を高速化するニューラルシンボリックフレームワークを提案する。
本手法は,コード生成品質の向上を目的として,複数ステップのプロンプトシーケンスを探索・精査する。
論文 参考訳(メタデータ) (2025-08-08T04:01:24Z) - OPT-BENCH: Evaluating LLM Agent on Large-Scale Search Spaces Optimization Problems [19.586884180343038]
OPT-BENCHは、大規模検索空間最適化問題において、LLM(Large Language Models)を評価するために設計されたベンチマークである。
OPT-Agentは、歴史的フィードバックを通じてソリューションの生成、検証、反復的に改善することで、複雑な問題に取り組む際の人間の推論をエミュレートする。
論文 参考訳(メタデータ) (2025-06-12T14:46:41Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Large Language Model-Aided Evolutionary Search for Constrained Multiobjective Optimization [15.476478159958416]
我々は,制約付き多目的最適化問題に対する進化探索を強化するために,大規模言語モデル(LLM)を用いる。
私たちの目標は、進化の集団の収束を早めることです。
論文 参考訳(メタデータ) (2024-05-09T13:44:04Z) - SparseLLM: Towards Global Pruning for Pre-trained Language Models [12.057369029549534]
本研究では,グローバルプルーニングプロセスを再定義する新しいフレームワークであるSparseLLMを提案する。
SparseLLMのアプローチは、LLMをモジュラ関数の連鎖として概念化し、問題の分解に補助変数を利用する。
高いスパーシティ・レシエーションにおいて、特に顕著なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-02-28T00:09:07Z) - Robust Prompt Optimization for Large Language Models Against
Distribution Shifts [80.6757997074956]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて重要な能力を示している。
本稿では,LLMの分散シフトに対するロバストな最適化法を提案する。
この問題は、ラベル付けされたソースグループに最適化されたプロンプトを同時にラベル付けされていないターゲットグループに一般化する必要がある。
論文 参考訳(メタデータ) (2023-05-23T11:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。