論文の概要: Enhancing the Cross-Size Generalization for Solving Vehicle Routing Problems via Continual Learning
- arxiv url: http://arxiv.org/abs/2510.10262v1
- Date: Sat, 11 Oct 2025 15:39:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.864743
- Title: Enhancing the Cross-Size Generalization for Solving Vehicle Routing Problems via Continual Learning
- Title(参考訳): 連続学習による車両経路問題の解法におけるクロスサイズ一般化の促進
- Authors: Jingwen Li, Zhiguang Cao, Yaoxin Wu, Tang Liu,
- Abstract要約: 既存の車両ルーティング問題に対する深いモデルは通常、単一のサイズのインスタンスを使用して訓練され、評価される。
これにより、異なる問題サイズにまたがって一般化する能力が大幅に制限される。
本稿では,問題の大きさの上昇を事例として,深層モデルを逐次訓練する継続的学習に基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 44.178497470932435
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Exploring machine learning techniques for addressing vehicle routing problems has attracted considerable research attention. To achieve decent and efficient solutions, existing deep models for vehicle routing problems are typically trained and evaluated using instances of a single size. This substantially limits their ability to generalize across different problem sizes and thus hampers their practical applicability. To address the issue, we propose a continual learning based framework that sequentially trains a deep model with instances of ascending problem sizes. Specifically, on the one hand, we design an inter-task regularization scheme to retain the knowledge acquired from smaller problem sizes in the model training on a larger size. On the other hand, we introduce an intra-task regularization scheme to consolidate the model by imitating the latest desirable behaviors during training on each size. Additionally, we exploit the experience replay to revisit instances of formerly trained sizes for mitigating the catastrophic forgetting. Experimental results show that our approach achieves predominantly superior performance across various problem sizes (either seen or unseen in the training), as compared to state-of-the-art deep models including the ones specialized for generalizability enhancement. Meanwhile, the ablation studies on the key designs manifest their synergistic effect in the proposed framework.
- Abstract(参考訳): 車両のルーティング問題に対処する機械学習技術を探究する研究が注目されている。
まともで効率的なソリューションを実現するために、車両ルーティング問題のための既存のディープモデルは通常、単一のサイズのインスタンスを使用して訓練され、評価される。
これにより、さまざまな問題サイズをまたいだ一般化能力が大幅に制限され、現実的な適用性を損なうことになる。
この問題に対処するために,問題のサイズが増大する事例で,深層モデルを逐次訓練する継続的学習ベースのフレームワークを提案する。
具体的には,タスク間正規化方式を設計し,モデル学習において,より小さな問題サイズから得られた知識をより大きなサイズで保持する。
一方、各サイズでのトレーニング中に、最新の望ましい振る舞いを模倣することにより、モデルを統合するためのタスク内正規化方式を導入する。
さらに,従来トレーニングされていたサイズのインスタンスを再検討するために,経験リプレイを活用して,破滅的な忘れを緩和する。
実験結果から,本手法は多種多様な問題サイズ(トレーニングで見られるか見えないか)において,汎用性向上に特化するものを含む最先端の深部モデルと比較して,主に優れた性能を達成できることが示唆された。
一方、鍵設計におけるアブレーション研究は、提案フレームワークにおいてそれらの相乗効果を示す。
関連論文リスト
- HINT: Helping Ineffective Rollouts Navigate Towards Effectiveness [49.72591739116668]
強化学習(RL)は、大規模言語モデル(LLM)の長いチェーン・オブ・シント(CoT)推論能力を高めるための重要な要因となっている。
しかし、GRPOのような一般的な手法は、タスクの難しさがモデルの能力を超えると失敗し、スパーシリティと非効率なトレーニングに報いる。
我々は、適応的なヒントフレームワークであるHINT: Helping In Effective Rollouts Navigate Towards Effectiveを提案する。
論文 参考訳(メタデータ) (2025-10-10T13:42:03Z) - Improving Generalization of Neural Combinatorial Optimization for Vehicle Routing Problems via Test-Time Projection Learning [3.0711362702464684]
我々は,Large Language Models (LLM) による新しい学習フレームワークを導入する。
ニューラルネットワークとのジョイントトレーニングを必要とする一般的なテクニックとは異なり、我々のアプローチは推論フェーズでのみ動作する。
提案手法により,100ノード以上の大規模トラベリングセールスマン問題(TSP)と最大100Kノードのキャパシタン化車両ルーティング問題(CVRP)において,バックボーンモデル(100ノードインスタンスでトレーニング)が優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-06-03T03:15:22Z) - Concrete Subspace Learning based Interference Elimination for Multi-task
Model Fusion [86.6191592951269]
一般的な事前訓練された大規模モデルから微調整されたマージングモデルは、様々なタスクに特化しているが、様々なタスクでうまく機能するマルチタスクモデルを構築するための安価でスケーラブルな戦略として実証されている。
本稿では、共通低次元部分空間を同定し、その共有情報トラック干渉問題を性能を犠牲にすることなく利用するための連続緩和(Concrete)部分空間学習法を提案する。
論文 参考訳(メタデータ) (2023-12-11T07:24:54Z) - Too Big, so Fail? -- Enabling Neural Construction Methods to Solve
Large-Scale Routing Problems [10.832715681422842]
最先端のニューラルコンストラクション手法でさえ、単純なイテレーションによって性能が向上していることを示す。
本稿では, 解の局所的な部分を完全に破壊し, 改良された変種を再現する。
論文 参考訳(メタデータ) (2023-09-29T09:36:37Z) - Towards Omni-generalizable Neural Methods for Vehicle Routing Problems [14.210085924625705]
本稿では,VRPにおけるサイズと分布の両面での一般化を考慮した,挑戦的かつ現実的な設定について検討する。
提案するメタラーニングフレームワークは,推論中に新しいタスクに迅速に適応する能力を持つモデルを効果的に学習することを可能にする。
論文 参考訳(メタデータ) (2023-05-31T06:14:34Z) - Prototype-guided Cross-task Knowledge Distillation for Large-scale
Models [103.04711721343278]
クロスタスクの知識蒸留は、競争力のあるパフォーマンスを得るために小さな学生モデルを訓練するのに役立ちます。
本稿では,大規模教師ネットワークの内在的ローカルレベルのオブジェクト知識を様々なタスクシナリオに転送するための,プロトタイプ誘導型クロスタスク知識蒸留(ProC-KD)アプローチを提案する。
論文 参考訳(メタデータ) (2022-12-26T15:00:42Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Attention, Filling in The Gaps for Generalization in Routing Problems [5.210197476419621]
本稿では,既存のモデルの理解と改善を通じて,分野の統合を促進することを目的とする。
我々はまず,Sparse Dynamic Attention のための Kool et al. 法とその損失関数を適用することで,モデルの相違を第一に狙う。
次に、特定のシナリオにおける単一インスタンストレーニングよりも優れたパフォーマンスを示す混合インスタンストレーニングメソッドを使用することで、固有の違いをターゲットとします。
論文 参考訳(メタデータ) (2022-07-14T21:36:51Z) - Supervised Permutation Invariant Networks for Solving the CVRP with
Bounded Fleet Size [3.5235974685889397]
車両ルーティング問題などの最適化問題を解くための学習は、大きな計算上の利点をもたらす。
本研究では,アプリオリ固定数の車両を尊重しながら,スクラッチから完全なツアー計画を構築する強力な教師付きディープラーニングフレームワークを提案する。
効率的な後処理方式と組み合わせることで,教師付きアプローチはより高速かつ容易にトレーニングできるだけでなく,競争力のある結果が得られる。
論文 参考訳(メタデータ) (2022-01-05T10:32:18Z) - Dynamics Generalization via Information Bottleneck in Deep Reinforcement
Learning [90.93035276307239]
本稿では,RLエージェントのより優れた一般化を実現するために,情報理論正則化目標とアニーリングに基づく最適化手法を提案する。
迷路ナビゲーションからロボットタスクまで、さまざまな領域において、我々のアプローチの極端な一般化の利点を実証する。
この研究は、タスク解決のために冗長な情報を徐々に取り除き、RLの一般化を改善するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2020-08-03T02:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。