論文の概要: Learn to Design the Heuristics for Vehicle Routing Problem
- arxiv url: http://arxiv.org/abs/2002.08539v1
- Date: Thu, 20 Feb 2020 02:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 06:32:15.433842
- Title: Learn to Design the Heuristics for Vehicle Routing Problem
- Title(参考訳): 自動車ルーティング問題に対するヒューリスティックスの設計を学ぶ
- Authors: Lei Gao, Mingxiang Chen, Qichang Chen, Ganzhong Luo, Nuoyi Zhu, Zhixin
Liu
- Abstract要約: 本稿では,車両問題 (VRP) の解法を反復的に改善する局所探索の学習手法を提案する。
ローカルサーチは、候補解をデストラクトするデストラクト演算子と、デストラクトされたものを新しいものに再構築する後続のリカバリ演算子とから構成される。
提案されたニューラルネットワークは、アクター批判フレームワークによってトレーニングされたもので、Graph Attention Networkの修正版としてエンコーダで構成されている。
- 参考スコア(独自算出の注目度): 5.37343672465706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an approach to learn the local-search heuristics that
iteratively improves the solution of Vehicle Routing Problem (VRP). A
local-search heuristics is composed of a destroy operator that destructs a
candidate solution, and a following repair operator that rebuilds the
destructed one into a new one. The proposed neural network, as trained through
actor-critic framework, consists of an encoder in form of a modified version of
Graph Attention Network where node embeddings and edge embeddings are
integrated, and a GRU-based decoder rendering a pair of destroy and repair
operators. Experiment results show that it outperforms both the traditional
heuristics algorithms and the existing neural combinatorial optimization for
VRP on medium-scale data set, and is able to tackle the large-scale data set
(e.g., over 400 nodes) which is a considerable challenge in this area.
Moreover, the need for expertise and handcrafted heuristics design is
eliminated due to the fact that the proposed network learns to design the
heuristics with a better performance. Our implementation is available online.
- Abstract(参考訳): 本稿では,車両ルーティング問題(VRP)の解法を反復的に改善する局所探索ヒューリスティックスを学習するためのアプローチを提案する。
局所探索ヒューリスティックスは、候補解を分解する破壊演算子と、破壊したものを新しいものに再構築する後続の修理演算子とから構成される。
提案するニューラルネットワークはアクタ-クリティック・フレームワークによってトレーニングされ、ノード埋め込みとエッジ埋め込みを統合したグラフアテンションネットワークの修正バージョンのエンコーダと、一対の破壊と修復演算子をレンダリングする gru ベースのデコーダで構成されている。
実験の結果、これは従来のヒューリスティックスアルゴリズムと既存のVRPのニューラルネットワーク最適化の両方を中規模データセットで上回り、この分野で重要な課題である大規模なデータセット(例えば400ノード以上)に取り組むことができることを示した。
さらに,提案したネットワークがより優れた性能でヒューリスティックを設計することを学ぶため,専門知識と手作りヒューリスティック設計の必要性は排除される。
私たちの実装はオンラインで利用可能です。
関連論文リスト
- GASE: Graph Attention Sampling with Edges Fusion for Solving Vehicle Routing Problems [6.084414764415137]
車両のルーティング問題を解決するためにEdges Fusionフレームワークを用いた適応型グラフ注意サンプリングを提案する。
提案手法は,既存の手法を2.08%-6.23%上回り,より強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-21T03:33:07Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Large Neighborhood Search based on Neural Construction Heuristics [5.210197476419621]
時間窓を用いた車両経路問題の解法として,ニューラルネットワークを応用した学習構築法を提案する。
本手法では, グラフニューラルネットワークを用いて問題を符号化し, 解を自己回帰的に復号する。
論文 参考訳(メタデータ) (2022-05-02T09:38:19Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Dynamic Partial Removal: A Neural Network Heuristic for Large
Neighborhood Search [6.297706165407368]
本稿では,Large Neighborhood Search (LNS) を学習するニューラルネットワークの設計について述べる。
LNSは破壊演算子と修理演算子から構成されており、コンビニアル最適化の問題を解決するために近隣探索を実行する方法を規定している。
論文 参考訳(メタデータ) (2020-05-19T09:50:35Z) - Sparse aNETT for Solving Inverse Problems with Deep Learning [2.5234156040689237]
逆問題を解決するためのスパース再構成フレームワーク(aNETT)を提案する。
非線形スペーシング変換として機能するオートエンコーダネットワーク$D circ E$をトレーニングする。
スパースCTでは数値的な結果が得られた。
論文 参考訳(メタデータ) (2020-04-20T18:43:13Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。