論文の概要: Neuro CROSS exchange: Learning to CROSS exchange to solve realistic
vehicle routing problems
- arxiv url: http://arxiv.org/abs/2206.02771v1
- Date: Mon, 6 Jun 2022 17:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:58:43.547321
- Title: Neuro CROSS exchange: Learning to CROSS exchange to solve realistic
vehicle routing problems
- Title(参考訳): neuro cross exchange: 現実的な車両ルーティング問題を解決するためのクロス交換の学習
- Authors: Minjun Kim, Junyoung Park and Jinkyoo Park
- Abstract要約: クロス交換(CE)は、様々な車両ルーティング問題(VRP)を解決するメタヒューリスティックである
本稿では,学習メタヒューリスティックの基本演算子であるNeuro CEを提案する。
NCEは、コスト削減(すなわちCE検索の結果)を予測するためにグラフニューラルネットワークを使用し、検索コストを$mathcalO(n2)$に下げるためのガイダンスとして、予測コスト削減を利用する。
- 参考スコア(独自算出の注目度): 15.744157852898056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CROSS exchange (CE), a meta-heuristic that solves various vehicle routing
problems (VRPs), improves the solutions of VRPs by swapping the sub-tours of
the vehicles. Inspired by CE, we propose Neuro CE (NCE), a fundamental operator
of learned meta-heuristic, to solve various VRPs while overcoming the
limitations of CE (i.e., the expensive $\mathcal{O}(n^4)$ search cost). NCE
employs a graph neural network to predict the cost-decrements (i.e., results of
CE searches) and utilizes the predicted cost-decrements as guidance for search
to decrease the search cost to $\mathcal{O}(n^2)$. As the learning objective of
NCE is to predict the cost-decrement, the training can be simply done in a
supervised fashion, whose training samples can be prepared effortlessly.
Despite the simplicity of NCE, numerical results show that the NCE trained with
flexible multi-depot VRP (FMDVRP) outperforms the meta-heuristic baselines.
More importantly, it significantly outperforms the neural baselines when
solving distinctive special cases of FMDVRP (e.g., MDVRP, mTSP, CVRP) without
additional training.
- Abstract(参考訳): 様々な車両ルーティング問題(VRP)を解決するメタヒューリスティックであるCROSS Exchange (CE)は、車両のサブツールを交換することで、VRPのソリューションを改善する。
CEに触発されて,学習メタヒューリスティックの基本演算子であるNeuro CE (NCE) を提案し,CEの限界を克服しつつ様々なVRPを解く(高価な$\mathcal{O}(n^4)$サーチコスト)。
nceはグラフニューラルネットワークを用いてコスト減少(すなわちce検索の結果)を予測し、予測されたコスト減少を検索のガイダンスとして利用し、検索コストを$\mathcal{o}(n^2)$に下げる。
nceの学習目的はコスト削減を予測することにあるため、トレーニングサンプルを無力に作成できる教師あり方式でトレーニングを単純に行うことができる。
NCEの単純さにもかかわらず、NCEはフレキシブルマルチデポVRP(FMDVRP)で訓練し、メタヒューリスティックベースラインを上回っている。
さらに重要なことは、FMDVRP(例えば、MDVRP、mTSP、CVRP)の特別なケースを追加の訓練なしで解く際に、神経のベースラインを著しく上回ることである。
関連論文リスト
- Improve ROI with Causal Learning and Conformal Prediction [8.430828492374072]
本研究は,各種産業におけるコスト対応二元処理割り当て問題(C-B)について考察する。
最先端の直接ROI予測(TAP)手法に焦点を当てている。
これらの課題に対処することは、さまざまな運用状況における信頼性と堅牢な予測を保証するために不可欠である。
論文 参考訳(メタデータ) (2024-07-01T08:16:25Z) - Reinforcement Learning for Solving Stochastic Vehicle Routing Problem
with Time Windows [0.09831489366502298]
本稿では,時空間における車両ルーティング問題 (SVRP) の最適化のための強化学習手法を提案する。
我々は、特定の顧客時間窓とともに、不確実な旅行コストと需要を考慮に入れた新しいSVRPの定式化を開発する。
ルーティングコストを最小限に抑えるために、強化学習を通じてトレーニングされた注意ベースのニューラルネットワークが使用される。
論文 参考訳(メタデータ) (2024-02-15T07:35:29Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Inter-Cell Network Slicing With Transfer Learning Empowered Multi-Agent
Deep Reinforcement Learning [6.523367518762879]
ネットワークスライシングにより、オペレータは共通の物理インフラ上で多様なアプリケーションを効率的にサポートできる。
ネットワーク展開の恒常的に増大する密度化は、複雑で非自明な細胞間干渉を引き起こす。
複数の深層強化学習(DRL)エージェントを用いたDIRPアルゴリズムを開発し,各セルの資源分配を協調的に最適化する。
論文 参考訳(メタデータ) (2023-06-20T14:14:59Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - TransPath: Learning Heuristics For Grid-Based Pathfinding via
Transformers [64.88759709443819]
探索の効率を顕著に向上させると考えられる,インスタンス依存のプロキシを学習することを提案する。
私たちが最初に学ぶことを提案するプロキシは、補正係数、すなわち、インスタンスに依存しないコスト・ツー・ゴの見積もりと完璧な見積もりの比率である。
第2のプロキシはパス確率であり、グリッドセルが最も短いパスに横たわっている可能性を示している。
論文 参考訳(メタデータ) (2022-12-22T14:26:11Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。