論文の概要: Learning (Re-)Starting Solutions for Vehicle Routing Problems
- arxiv url: http://arxiv.org/abs/2008.03424v1
- Date: Sat, 8 Aug 2020 02:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 09:13:10.176361
- Title: Learning (Re-)Starting Solutions for Vehicle Routing Problems
- Title(参考訳): 車両ルーティング問題に対する学習(再)スタートソリューション
- Authors: Xingwen Zhang and Shuang Yang
- Abstract要約: 最適化問題の解決における鍵となる課題は、エージェント(ソルバ)を効率的に探索する方法である。
本稿では,機械学習を用いて探索を高速化できることを示す。
- 参考スコア(独自算出の注目度): 14.509927512118544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge in solving a combinatorial optimization problem is how to
guide the agent (i.e., solver) to efficiently explore the enormous search
space. Conventional approaches often rely on enumeration (e.g., exhaustive,
random, or tabu search) or have to restrict the exploration to rather limited
regions (e.g., a single path as in iterative algorithms). In this paper, we
show it is possible to use machine learning to speedup the exploration. In
particular, a value network is trained to evaluate solution candidates, which
provides a useful structure (i.e., an approximate value surface) over the
search space; this value network is then used to screen solutions to help a
black-box optimization agent to initialize or restart so as to navigate through
the search space towards desirable solutions. Experiments demonstrate that the
proposed ``Learn to Restart'' algorithm achieves promising results in solving
Capacitated Vehicle Routing Problems (CVRPs).
- Abstract(参考訳): 組合せ最適化問題の解決における鍵となる課題は、エージェント(ソルバ)が巨大な探索空間を効率的に探索する方法である。
従来の手法は列挙法(例えば、徹底的、ランダム、タブ探索)に依存したり、より限られた地域(例えば、反復アルゴリズムのような単一の経路)で探索を制限しなければならない。
本稿では,機械学習を用いて探索を高速化できることを示す。
特に、値ネットワークは、探索空間上の有用な構造(すなわち近似値面)を提供するソリューション候補を評価するために訓練され、この値ネットワークは、ブラックボックス最適化エージェントが望ましいソリューションに向かって探索空間をナビゲートするために初期化または再起動するのを助けるために、ソリューションのスクリーンに使用される。
実験により,提案した‘Learn to Restart’アルゴリズムは,キャパシタン化車両ルーティング問題(CVRP)の解法において有望な結果が得られることが示された。
関連論文リスト
- BalMCTS: Balancing Objective Function and Search Nodes in MCTS for
Constraint Optimization Problems [7.196057722218442]
制約問題最適化(COP)は、通常ブランチ・アンド・バウンド(B&B)法によって解決される問題において、複雑な課題を提起する。
COPを解くための深度優先探索アルゴリズムに基づく新しいニューラルネットワークアルゴリズムを提案する。
提案手法は,最初の5つの実現可能な解のうち17.63%未満のギャップを有する実現可能な解を同定する。
論文 参考訳(メタデータ) (2023-12-26T03:09:08Z) - Genetic Algorithms with Neural Cost Predictor for Solving Hierarchical Vehicle Routing Problems [20.684353068460375]
車両の経路決定が高次決定と連動する場合、結果の最適化問題は計算に重大な課題をもたらす。
本稿では,ニューラルコスト予測器を用いた遺伝的アルゴリズム(GANCP)という,ディープラーニングに基づく新しいアプローチを提案する。
特に,提案するニューラルネットワークは,静電容量化車両ルーティング問題を解決するHGS-CVRPオープンソースパッケージの目的値について学習する。
論文 参考訳(メタデータ) (2023-10-22T02:46:37Z) - Bayesian Program Learning by Decompiling Amortized Knowledge [50.960612835957875]
本稿では,ニューラルサーチポリシーを直接活用し,その記憶された知識を効果的に「分解」し,関連するプログラムコンポーネントを抽出する,新たな学習手法を提案する。
これにより、より強力な償却推論が実現され、探索幅を減らすために学習した償却知識も探索深度を減らすために使用されるようになった。
論文 参考訳(メタデータ) (2023-06-13T15:35:01Z) - A machine learning framework for neighbor generation in metaheuristic
search [4.521119623956821]
メタヒューリスティック検索における近隣世代のための汎用機械学習フレームワークを提案する。
メタヒューリスティックな2つの応用法について検証する。
論文 参考訳(メタデータ) (2022-12-22T01:58:04Z) - Sample-Efficient, Exploration-Based Policy Optimisation for Routing
Problems [2.6782615615913348]
本稿では,エントロピーに基づく新しい強化学習手法を提案する。
さらに、我々は、期待したリターンを最大化する、政治以外の強化学習手法を設計する。
我々のモデルは様々な経路問題に一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-05-31T09:51:48Z) - A Metaheuristic Algorithm for Large Maximum Weight Independent Set
Problems [58.348679046591265]
ノード重み付きグラフが与えられたとき、ノード重みが最大となる独立した(相互に非隣接な)ノードの集合を見つける。
このアプリケーションで放送されるグラフの中には、数十万のノードと数億のエッジを持つ大きなものもあります。
我々は,不規則なランダム化適応検索フレームワークにおいてメタヒューリスティックな新しい局所探索アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-03-28T21:34:16Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Ranking Cost: Building An Efficient and Scalable Circuit Routing Planner
with Evolution-Based Optimization [49.207538634692916]
そこで我々は、効率よくトレーニング可能なルータを形成するための新しい回路ルーティングアルゴリズム、Randing Costを提案する。
提案手法では,A*ルータが適切な経路を見つけるのに役立つコストマップと呼ばれる新しい変数群を導入する。
我々のアルゴリズムはエンドツーエンドで訓練されており、人工データや人間の実演は一切使用しない。
論文 参考訳(メタデータ) (2021-10-08T07:22:45Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Learning 2-opt Heuristics for the Traveling Salesman Problem via Deep
Reinforcement Learning [2.4565068569913384]
本研究では,2オプト演算子に基づく局所的な探索勾配を深層強化学習により学習することを提案する。
学習したポリシは、ランダムな初期解よりも改善でき、従来の最先端のディープラーニング手法よりも高速に、ほぼ最適解にアプローチできることを示す。
論文 参考訳(メタデータ) (2020-04-03T14:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。