論文の概要: Learn-n-Route: Learning implicit preferences for vehicle routing
- arxiv url: http://arxiv.org/abs/2101.03936v1
- Date: Mon, 11 Jan 2021 14:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:44:15.642781
- Title: Learn-n-Route: Learning implicit preferences for vehicle routing
- Title(参考訳): Learn-n-Route: 車両ルーティングに対する暗黙の選好学習
- Authors: Rocsildes Canoy, V\'ictor Bucarey, Jayanta Mandi, Tias Guns
- Abstract要約: ルート計画(またはルーティング)を手動で作成する際に、人間のプランナーが有する暗黙の好みをルーティングエンジンが学習する車両ルーティングの学習意思決定支援システムについて検討する。
目標は、車両ルーティングシステムの距離ベースの客観的基準の上にこれらの主観的な好みを使用することです。
- 参考スコア(独自算出の注目度): 9.434400627011108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate a learning decision support system for vehicle routing, where
the routing engine learns implicit preferences that human planners have when
manually creating route plans (or routings). The goal is to use these learned
subjective preferences on top of the distance-based objective criterion in
vehicle routing systems. This is an alternative to the practice of
distinctively formulating a custom VRP for every company with its own routing
requirements. Instead, we assume the presence of past vehicle routing solutions
over similar sets of customers, and learn to make similar choices. The learning
approach is based on the concept of learning a Markov model, which corresponds
to a probabilistic transition matrix, rather than a deterministic distance
matrix. This nevertheless allows us to use existing arc routing VRP software in
creating the actual routings, and to optimize over both distances and
preferences at the same time. For the learning, we explore different schemes to
construct the probabilistic transition matrix that can co-evolve with changing
preferences over time. Our results on a use-case with a small transportation
company show that our method is able to generate results that are close to the
manually created solutions, without needing to characterize all constraints and
sub-objectives explicitly. Even in the case of changes in the customer sets,
our method is able to find solutions that are closer to the actual routings
than when using only distances, and hence, solutions that require fewer manual
changes when transformed into practical routings.
- Abstract(参考訳): 本研究では,経路計画(経路計画)を手作業で作成する際に,人間の計画者が持つ暗黙の嗜好を学習する車両経路決定支援システムについて検討する。
目的は、車両ルーティングシステムにおける距離に基づく客観的基準の上に、これらの学習された主観的嗜好を使用することである。
これは、独自のルーティング要件を持つ企業毎にカスタムvrpを識別的に定式化するプラクティスに代わるものだ。
代わりに、同じ顧客に対して過去の車両ルーティングソリューションの存在を想定し、同様の選択をすることを学びます。
学習アプローチは、決定論的距離行列ではなく確率論的遷移行列に対応するマルコフモデルを学ぶという概念に基づいている。
それにもかかわらず、既存のアークルーティングVRPソフトウェアを使って実際のルーティングを作成し、同時に距離と好みを最適化することができます。
学習のために、我々は時間とともに好みを変えることができる確率的遷移行列を構築するための異なるスキームを探索する。
小型輸送会社とのユースケースでは,制約やサブオブジェクトを明示的に特徴づけることなく,手作業で作成したソリューションに近い結果を生成できることが判明した。
顧客集合の変更の場合であっても,本手法は距離のみを使用する場合よりも実際のルーティングに近い解を見つけることができるため,実用的なルーティングに変換する際に手作業による変更が少ない解を得ることができる。
関連論文リスト
- DynamicRouteGPT: A Real-Time Multi-Vehicle Dynamic Navigation Framework Based on Large Language Models [13.33340860174857]
複雑な交通環境におけるリアルタイムな動的経路計画は、交通量の変化や信号待ち時間といった課題を提示する。
DijkstraやA*のような従来の静的ルーティングアルゴリズムは最短経路を計算するが、しばしば動的条件下で失敗する。
本稿では,実時間動的経路計画のための因果推論に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-26T11:19:58Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Inverse Optimization for Routing Problems [3.282021317933024]
Inverse Optimization (IO) を用いたルーティング問題における意思決定者の行動学習手法を提案する。
提案手法の柔軟性と実世界の可能性を示し,ルーティング問題における意思決定者の判断から学ぶ。
論文 参考訳(メタデータ) (2023-07-14T14:03:47Z) - XRoute Environment: A Novel Reinforcement Learning Environment for
Routing [8.797544401458476]
我々は,新しい強化学習環境であるXRoute Environmentを紹介した。
エージェントは、高度なエンドツーエンドのルーティングフレームワークでネットを選択してルーティングするように訓練される。
結果として生じる環境は難しく、使いやすく、カスタマイズし、追加のシナリオを追加します。
論文 参考訳(メタデータ) (2023-05-23T08:46:25Z) - NeurIPS 2022 Competition: Driving SMARTS [60.948652154552136]
ドライビングSMARTSは、動的相互作用コンテキストにおける分散シフトに起因する問題に対処するために設計された定期的な競争である。
提案するコンペティションは,強化学習(RL)やオフライン学習など,方法論的に多様なソリューションをサポートする。
論文 参考訳(メタデータ) (2022-11-14T17:10:53Z) - Deep Inverse Reinforcement Learning for Route Choice Modeling [0.6853165736531939]
経路選択モデリングは交通計画と需要予測の基本的な課題である。
本研究では,リンクベース経路選択モデルのための一般的な逆強化学習(IRL)フレームワークを提案する。
中国上海のタクシーGPSデータに基づく実験結果から,提案モデルの性能改善を検証した。
論文 参考訳(メタデータ) (2022-06-18T06:33:06Z) - Find a Way Forward: a Language-Guided Semantic Map Navigator [53.69229615952205]
本稿では,新たな視点で言語誘導ナビゲーションの問題に対処する。
ロボットが自然言語の指示を実行し、地図観測に基づいて目標位置へ移動できるようにする。
提案手法は特に長距離ナビゲーションの場合において顕著な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-03-07T07:40:33Z) - Deep Learning Aided Packet Routing in Aeronautical Ad-Hoc Networks
Relying on Real Flight Data: From Single-Objective to Near-Pareto
Multi-Objective Optimization [79.96177511319713]
航空アドホックネットワーク(AANET)のルーティングを支援するために、ディープラーニング(DL)を起動する。
フォワードノードによって観測された局所的な地理的情報を最適な次のホップを決定するために必要な情報にマッピングするために、ディープニューラルネットワーク(DNN)が考案される。
DL支援ルーティングアルゴリズムを多目的シナリオに拡張し,遅延を最小化し,経路容量を最大化し,経路寿命を最大化する。
論文 参考訳(メタデータ) (2021-10-28T14:18:22Z) - Ranking Cost: Building An Efficient and Scalable Circuit Routing Planner
with Evolution-Based Optimization [49.207538634692916]
そこで我々は、効率よくトレーニング可能なルータを形成するための新しい回路ルーティングアルゴリズム、Randing Costを提案する。
提案手法では,A*ルータが適切な経路を見つけるのに役立つコストマップと呼ばれる新しい変数群を導入する。
我々のアルゴリズムはエンドツーエンドで訓練されており、人工データや人間の実演は一切使用しない。
論文 参考訳(メタデータ) (2021-10-08T07:22:45Z) - Data Driven VRP: A Neural Network Model to Learn Hidden Preferences for
VRP [9.434400627011108]
ニューラルネットワークモデルを用いてアーク確率を推定し、追加機能と自動パラメータ推定を可能にする。
本稿では,従来のマルコフ計数手法との違いについて検討し,この設定におけるニューラルネットワークの適用性について検討する。
論文 参考訳(メタデータ) (2021-08-10T10:53:44Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。