論文の概要: Distance-aware Attention Reshaping: Enhance Generalization of Neural
Solver for Large-scale Vehicle Routing Problems
- arxiv url: http://arxiv.org/abs/2401.06979v1
- Date: Sat, 13 Jan 2024 05:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 20:17:07.850839
- Title: Distance-aware Attention Reshaping: Enhance Generalization of Neural
Solver for Large-scale Vehicle Routing Problems
- Title(参考訳): 距離認識注意リシェーピング:大規模車両経路問題に対するニューラルネットワークの一般化
- Authors: Yang Wang and Ya-Hui Jia and Wei-Neng Chen and Yi Mei
- Abstract要約: 本稿では,大規模車両経路問題の解法におけるニューラルソルバの支援を目的とした,距離認識型アテンション再構築手法を提案する。
我々は、現在のノード間でのユークリッド距離情報を用いて、注意点の調整を行う。
実験結果から,提案手法は大規模CVRPLibデータセットにおいて,既存の最先端のニューラルソルバを著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 5.190244678604757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural solvers based on attention mechanism have demonstrated remarkable
effectiveness in solving vehicle routing problems. However, in the
generalization process from small scale to large scale, we find a phenomenon of
the dispersion of attention scores in existing neural solvers, which leads to
poor performance. To address this issue, this paper proposes a distance-aware
attention reshaping method, assisting neural solvers in solving large-scale
vehicle routing problems. Specifically, without the need for additional
training, we utilize the Euclidean distance information between current nodes
to adjust attention scores. This enables a neural solver trained on small-scale
instances to make rational choices when solving a large-scale problem.
Experimental results show that the proposed method significantly outperforms
existing state-of-the-art neural solvers on the large-scale CVRPLib dataset.
- Abstract(参考訳): 注意機構に基づくニューラルソルバは,車両経路問題の解法において顕著な効果を示した。
しかし,小型から大規模への一般化過程において,既存のニューラルネットワークにおいて注意点の分散現象がみられ,性能が低下する。
この問題に対処するため,本論文では,大規模車両経路問題の解法において,ニューラルソルバを支援する距離認識型注意再構成法を提案する。
具体的には、追加のトレーニングを必要とせず、現在のノード間のユークリッド距離情報を利用して注意スコアを調整する。
これにより、小規模インスタンスでトレーニングされたニューラルネットワークソルバは、大規模問題を解決する際に合理的な選択が可能になる。
実験の結果,提案手法は大規模CVRPLibデータセットにおいて,既存の最先端のニューラルソルバを著しく上回ることがわかった。
関連論文リスト
- Neural Networks for Vehicle Routing Problem [0.0]
ルート最適化はニューラルネットワークの新たな課題と見なすことができる。
機械学習の最近の進歩は、複雑な問題に対処するための新しいツールセットを提供する。
ニューラルネットワークを応用する主な領域は、分類と回帰の領域である。
論文 参考訳(メタデータ) (2024-09-17T15:45:30Z) - Deep Reinforcement Learning for Picker Routing Problem in Warehousing [0.6562256987706128]
本稿では、強化学習を用いて学習したピッカーツアーをモデル化するための注意に基づくニューラルネットワークを提案する。
提案手法の重要な利点は,経路の複雑さを低減できるオプションを提供することである。
論文 参考訳(メタデータ) (2024-02-05T21:25:45Z) - Sparse Multitask Learning for Efficient Neural Representation of Motor
Imagery and Execution [30.186917337606477]
運動画像(MI)と運動実行(ME)タスクのためのスパースマルチタスク学習フレームワークを提案する。
MI-ME分類のためのデュアルタスクCNNモデルが与えられた場合、過渡的な接続に対して、サリエンシに基づくスペーシフィケーションアプローチを適用する。
以上の結果から, この調整された疎水性は, 過度に適合する問題を緩和し, 少ないデータ量でテスト性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T09:06:16Z) - Adaptive recurrent vision performs zero-shot computation scaling to
unseen difficulty levels [6.053394076324473]
また,適応計算により,学習分布の難易度を超える解を視覚モデルで外挿できるかどうかを検討する。
畳み込みリカレントニューラルネットワーク(ConvRNN)とGraves(PathFinder)とMazes(Mazes)をベースとした学習可能なメカニズムを組み合わせる。
本稿では,AdRNNが早期(ないし遅れ)の処理を動的に停止して,より容易(あるいは困難)な問題を解消できることを示し,また,テスト時の繰り返し回数を動的に増加させることで,トレーニング中に表示されないより困難な問題設定に0ショットを一般化する。
論文 参考訳(メタデータ) (2023-11-12T21:07:04Z) - Genetic Algorithms with Neural Cost Predictor for Solving Hierarchical Vehicle Routing Problems [20.684353068460375]
車両の経路決定が高次決定と連動する場合、結果の最適化問題は計算に重大な課題をもたらす。
本稿では,ニューラルコスト予測器を用いた遺伝的アルゴリズム(GANCP)という,ディープラーニングに基づく新しいアプローチを提案する。
特に,提案するニューラルネットワークは,静電容量化車両ルーティング問題を解決するHGS-CVRPオープンソースパッケージの目的値について学習する。
論文 参考訳(メタデータ) (2023-10-22T02:46:37Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - Unlocking Pixels for Reinforcement Learning via Implicit Attention [61.666538764049854]
我々は最近,トランスフォーマーに非常に有効であることが示されている,新しい効率的なアテンションアルゴリズムを利用している。
これにより、注意に基づくコントローラは、より大きな視覚入力にスケールでき、より小さなパッチの使用が容易になります。
さらに,ソフトマックスの注目度をハイブリッドランダム特徴量で近似するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:00:26Z) - Untangling tradeoffs between recurrence and self-attention in neural
networks [81.30894993852813]
本稿では,再帰的ネットワークにおける自己注意が勾配伝播に与える影響を公式に分析する。
長期的な依存関係を捉えようとするとき、勾配をなくすことの問題を緩和することを証明する。
本稿では,スパース自己アテンションを反復的にスケーラブルに利用するための関連性スクリーニング機構を提案する。
論文 参考訳(メタデータ) (2020-06-16T19:24:25Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。