論文の概要: Cross-Problem Learning for Solving Vehicle Routing Problems
- arxiv url: http://arxiv.org/abs/2404.11677v2
- Date: Tue, 14 May 2024 11:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 18:42:17.836643
- Title: Cross-Problem Learning for Solving Vehicle Routing Problems
- Title(参考訳): 車両経路問題の解法におけるクロスプロブレム学習
- Authors: Zhuoyi Lin, Yaoxin Wu, Bangjian Zhou, Zhiguang Cao, Wen Song, Yingqian Zhang, Senthilnath Jayavelu,
- Abstract要約: 既存のニューラルネットワークは、特定の車両ルーティング問題(VRP)に対して、スクラッチから深いアーキテクチャを訓練することが多い。
本稿では,異なる下流VRP変種に対するトレーニングを実証的に支援するクロスプロブレム学習を提案する。
- 参考スコア(独自算出の注目度): 24.212686893913826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing neural heuristics often train a deep architecture from scratch for each specific vehicle routing problem (VRP), ignoring the transferable knowledge across different VRP variants. This paper proposes the cross-problem learning to assist heuristics training for different downstream VRP variants. Particularly, we modularize neural architectures for complex VRPs into 1) the backbone Transformer for tackling the travelling salesman problem (TSP), and 2) the additional lightweight modules for processing problem-specific features in complex VRPs. Accordingly, we propose to pre-train the backbone Transformer for TSP, and then apply it in the process of fine-tuning the Transformer models for each target VRP variant. On the one hand, we fully fine-tune the trained backbone Transformer and problem-specific modules simultaneously. On the other hand, we only fine-tune small adapter networks along with the modules, keeping the backbone Transformer still. Extensive experiments on typical VRPs substantiate that 1) the full fine-tuning achieves significantly better performance than the one trained from scratch, and 2) the adapter-based fine-tuning also delivers comparable performance while being notably parameter-efficient. Furthermore, we empirically demonstrate the favorable effect of our method in terms of cross-distribution application and versatility.
- Abstract(参考訳): 既存のニューラルヒューリスティックは、特定の車両ルーティング問題(VRP)ごとにスクラッチから深いアーキテクチャを訓練し、異なるVRP変種間で伝達可能な知識を無視していることが多い。
本稿では,異なる下流VRP変種に対するヒューリスティックストレーニングを支援するクロスプロブレム学習を提案する。
特に、複雑なVRPのためのニューラルネットワークをモジュール化します。
1)旅行セールスマン問題(TSP)に取り組むバックボーントランスフォーマー
2) 複雑なVRPにおける問題固有の特徴を処理するための軽量モジュールの追加。
そこで,本研究では,TSP用バックボーントランスフォーマーを事前学習し,ターゲットVRP用トランスフォーマーモデルを微調整するプロセスに適用することを提案する。
一方、トレーニングされたバックボーントランスフォーマーと問題固有のモジュールを同時に完全に微調整します。
一方、我々はモジュールとともに小さなアダプタネットワークを微調整するだけで、バックボーントランスフォーマーを保ちます。
典型的なVRPの広範囲にわたる実験
1) フル微調整は、スクラッチから訓練したものよりも大幅に性能が向上し、
2)アダプタベースのファインチューニングは、パラメータ効率を顕著に保ちながら、同等のパフォーマンスを提供する。
さらに, クロスディストリビューションと汎用性の観点から, 提案手法の有効性を実証的に実証した。
関連論文リスト
- RouteFinder: Towards Foundation Models for Vehicle Routing Problems [18.158173261177186]
車両ルーティング問題(英: Vehicle Routing Problems、VRP)は、現実世界に重大な影響を及ぼす最適化問題である。
個々のVRPの変種を解決するための学習の進歩にもかかわらず、統一されたアプローチは欠如している。
本稿ではVRPの基礎モデルを開発するためのフレームワークであるRouteFinderを紹介する。
論文 参考訳(メタデータ) (2024-06-21T09:34:26Z) - MVMoE: Multi-Task Vehicle Routing Solver with Mixture-of-Experts [26.790392171537754]
MRMoE(Mixed-of-experts)を用いたマルチタスク車両ルーティング解法を提案する。
我々はMVMoEの階層的ゲーティング機構を開発し、経験的性能と計算複雑性のトレードオフを良好に提供する。
実験により,本手法は10種類のVRPのゼロショット一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-02T06:02:07Z) - Decision S4: Efficient Sequence-Based RL via State Spaces Layers [87.3063565438089]
我々は、S4モデルの訓練効率を維持しつつ、軌道で機能する非政治的な訓練手順を提案する。
反復的に訓練され、長距離依存の恩恵を受け、新しい安定したアクター・クリティカルなメカニズムをベースとした、オンデマンドのトレーニング手順。
論文 参考訳(メタデータ) (2023-06-08T13:03:53Z) - Towards Omni-generalizable Neural Methods for Vehicle Routing Problems [14.210085924625705]
本稿では,VRPにおけるサイズと分布の両面での一般化を考慮した,挑戦的かつ現実的な設定について検討する。
提案するメタラーニングフレームワークは,推論中に新しいタスクに迅速に適応する能力を持つモデルを効果的に学習することを可能にする。
論文 参考訳(メタデータ) (2023-05-31T06:14:34Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Transformer in Transformer as Backbone for Deep Reinforcement Learning [43.354375917223656]
本稿では,深部RLのためのエンフレアトランスフォーマーネットワークの設計を提案する。
Transformer in Transformer (TIT) バックボーンが提案されている。
実験により、TITは異なる設定で一貫して満足なパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2022-12-30T03:50:38Z) - Dual Vision Transformer [114.1062057736447]
デュアルビジョントランス(Dual-ViT)という,コスト問題を緩和する新しいトランスフォーマーアーキテクチャを提案する。
新しいアーキテクチャでは、トークンベクトルをより効率的にグローバルなセマンティックスに圧縮し、複雑さの順序を減らし、重要なセマンティックパスが組み込まれている。
我々は、Dual-ViTが訓練の複雑さを低減したSOTAトランスフォーマーアーキテクチャよりも優れた精度を提供することを実証的に実証した。
論文 参考訳(メタデータ) (2022-07-11T16:03:44Z) - Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution [50.10987776141901]
近年の視覚変換器と自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
我々は,CNNの局所的特徴とトランスフォーマーが捉えた長距離依存性を活用する,超解像(SR)タスクのための効果的なハイブリッドアーキテクチャを提案する。
提案手法は,多数のベンチマークデータセットから最先端のSR結果を得る。
論文 参考訳(メタデータ) (2022-03-15T06:52:25Z) - Learning to Iteratively Solve Routing Problems with Dual-Aspect
Collaborative Transformer [14.680514752270375]
本稿では、ノードの埋め込みと位置特徴を別々に学習するDACT(Dual-Aspect Collaborative Transformer)を提案する。
位置特徴は、トランスフォーマーがVRP溶液の円度と対称性を効果的に捉えられるように、新しいサイクリック位置符号化(CPE)法によって埋め込まれている。
論文 参考訳(メタデータ) (2021-10-06T07:21:41Z) - Video Super-Resolution Transformer [85.11270760456826]
ビデオ超解像(VSR)は、高解像度映像を対応する低解像度バージョンから復元することを目的としており、時空間シーケンス予測問題である。
近年,シークエンス・ツー・シーケンス・モデリングの並列計算能力により,Transformerが人気を集めている。
本稿では,空間的・時間的畳み込み型自己認識層を理論的に理解し,局所性情報を活用する。
論文 参考訳(メタデータ) (2021-06-12T20:00:32Z) - UPDeT: Universal Multi-agent Reinforcement Learning via Policy
Decoupling with Transformers [108.92194081987967]
タスクに適合する1つのアーキテクチャを設計し、汎用的なマルチエージェント強化学習パイプラインを最初に試行する。
従来のRNNモデルとは異なり、トランスフォーマーモデルを用いてフレキシブルなポリシーを生成する。
提案方式はUPDeT(Universal Policy Decoupling Transformer)と名付けられ,動作制限を緩和し,マルチエージェントタスクの決定プロセスをより説明しやすいものにする。
論文 参考訳(メタデータ) (2021-01-20T07:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。