論文の概要: Improving Generalization of Neural Combinatorial Optimization for Vehicle Routing Problems via Test-Time Projection Learning
- arxiv url: http://arxiv.org/abs/2506.02392v1
- Date: Tue, 03 Jun 2025 03:15:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.208679
- Title: Improving Generalization of Neural Combinatorial Optimization for Vehicle Routing Problems via Test-Time Projection Learning
- Title(参考訳): テスト時間投影学習による車両経路問題に対するニューラルコンビネータ最適化の一般化
- Authors: Yuanyao Chen, Rongsheng Chen, Fu Luo, Zhenkun Wang,
- Abstract要約: 我々は,Large Language Models (LLM) による新しい学習フレームワークを導入する。
ニューラルネットワークとのジョイントトレーニングを必要とする一般的なテクニックとは異なり、我々のアプローチは推論フェーズでのみ動作する。
提案手法により,100ノード以上の大規模トラベリングセールスマン問題(TSP)と最大100Kノードのキャパシタン化車両ルーティング問題(CVRP)において,バックボーンモデル(100ノードインスタンスでトレーニング)が優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 3.0711362702464684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Combinatorial Optimization (NCO) has emerged as a promising learning-based paradigm for addressing Vehicle Routing Problems (VRPs) by minimizing the need for extensive manual engineering. While existing NCO methods, trained on small-scale instances (e.g., 100 nodes), have demonstrated considerable success on problems of similar scale, their performance significantly degrades when applied to large-scale scenarios. This degradation arises from the distributional shift between training and testing data, rendering policies learned on small instances ineffective for larger problems. To overcome this limitation, we introduce a novel learning framework driven by Large Language Models (LLMs). This framework learns a projection between the training and testing distributions, which is then deployed to enhance the scalability of the NCO model. Notably, unlike prevailing techniques that necessitate joint training with the neural network, our approach operates exclusively during the inference phase, obviating the need for model retraining. Extensive experiments demonstrate that our method enables a backbone model (trained on 100-node instances) to achieve superior performance on large-scale Traveling Salesman Problem (TSP) and Capacitated Vehicle Routing Problem (CVRP) of up to 100K nodes from diverse distributions.
- Abstract(参考訳): Neural Combinatorial Optimization(NCO)は、広範な手動エンジニアリングの必要性を最小限に抑えて、車両ルーティング問題(VRP)に対処するための、有望な学習ベースのパラダイムとして登場した。
既存のNCOメソッドは、小規模インスタンス(例えば100ノード)でトレーニングされているため、同様のスケールの問題でかなりの成功を収めているが、大規模なシナリオに適用した場合、性能は著しく低下する。
この劣化は、トレーニングとテストデータの分散的なシフトから生じ、小さなインスタンスで学んだポリシーは大きな問題に対して有効ではない。
この制限を克服するために,Large Language Models (LLMs) によって駆動される新しい学習フレームワークを導入する。
このフレームワークは、トレーニングとテストの間のプロジェクションを学び、NCOモデルのスケーラビリティを高めるためにデプロイされる。
特に、ニューラルネットワークとのジョイントトレーニングを必要とする一般的なテクニックとは異なり、我々のアプローチは推論フェーズでのみ動作し、モデル再トレーニングの必要性を回避します。
大規模トラベリングセールスマン問題 (TSP) とキャパシタントカールーティング問題 (CVRP) において, 多様な分布から最大100Kノードまでのバックボーンモデル(100ノードインスタンスで学習)が優れた性能を発揮することを実証した。
関連論文リスト
- Instance-Conditioned Adaptation for Large-scale Generalization of Neural Routing Solver [15.842155380912002]
本稿では,ニューラル・ルーティング・ソルバの大規模一般化のための新しいインスタンス・コンディション・アダプタ・モデルを提案する。
提案手法は,非常に高速な推論時間で有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-05-03T08:00:19Z) - Self-Improved Learning for Scalable Neural Combinatorial Optimization [15.842155380912002]
本研究は、ニューラルネットワーク最適化のスケーラビリティを向上させるための新しい自己改善学習(SIL)手法を提案する。
我々は,ラベル付きデータを使わずに大規模問題インスタンス上での直接モデルトレーニングを可能にする,効率的な自己改善機構を開発した。
さらに,計算モデルに対する線形注意複雑化機構を設計し,オーバヘッドの少ない大規模問題インスタンスを効率的に処理する。
論文 参考訳(メタデータ) (2024-03-28T16:46:53Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Towards Omni-generalizable Neural Methods for Vehicle Routing Problems [14.210085924625705]
本稿では,VRPにおけるサイズと分布の両面での一般化を考慮した,挑戦的かつ現実的な設定について検討する。
提案するメタラーニングフレームワークは,推論中に新しいタスクに迅速に適応する能力を持つモデルを効果的に学習することを可能にする。
論文 参考訳(メタデータ) (2023-05-31T06:14:34Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。