論文の概要: Applications of deep reinforcement learning to urban transit network design
- arxiv url: http://arxiv.org/abs/2502.17758v1
- Date: Tue, 25 Feb 2025 01:24:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:21:50.585965
- Title: Applications of deep reinforcement learning to urban transit network design
- Title(参考訳): 都市交通ネットワーク設計への深層強化学習の適用
- Authors: Andrew Holliday,
- Abstract要約: この論文は、ニューラルネットワークをトレーニングして公共交通ネットワークの設計を支援するための強化学習の使用に関するものである。
トランジットネットワーク設計問題(TNDP)は,実用上重要な最適化問題である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This thesis concerns the use of reinforcement learning to train neural networks to aid in the design of public transit networks. The Transit Network Design Problem (TNDP) is an optimization problem of considerable practical importance. Given a city with an existing road network and travel demands, the goal is to find a set of transit routes - each of which is a path through the graph - that collectively satisfy all demands, while minimizing a cost function that may depend both on passenger satisfaction and operating costs. The existing literature on this problem mainly considers metaheuristic optimization algorithms, such as genetic algorithms and ant-colony optimization. By contrast, we begin by taking a reinforcement learning approach, formulating the construction of a set of transit routes as a Markov Decision Process (MDP) and training a neural net policy to act as the agent in this MDP. We then show that, beyond using this policy to plan a transit network directly, it can be combined with existing metaheuristic algorithms, both to initialize the solution and to suggest promising moves at each step of a search through solution space. We find that such hybrid algorithms, which use a neural policy trained via reinforcement learning as a core component within a classical metaheuristic framework, can plan transit networks that are superior to those planned by either the neural policy or the metaheuristic algorithm. We demonstrate the utility of our approach by using it to redesign the transit network for the city of Laval, Quebec, and show that in simulation, the resulting transit network provides better service at lower cost than the existing transit network.
- Abstract(参考訳): この論文は、ニューラルネットワークをトレーニングして公共交通ネットワークの設計を支援するための強化学習の使用に関するものである。
トランジットネットワーク設計問題(TNDP)は,実用上重要な最適化問題である。
既存の道路網と交通需要のある都市では、乗客の満足度と運行コストの両方に依存するコスト関数を最小化しながら、すべての需要を総括して満たす交通経路を見つけることが目的である。
この問題に関する既存の文献は、主に遺伝的アルゴリズムやアリコニー最適化のようなメタヒューリスティック最適化アルゴリズムを考察している。
対照的に、我々は強化学習アプローチを採用し、マルコフ決定プロセス(MDP)として一連の輸送経路の構築を定式化し、このMDPのエージェントとして機能する神経網政策を訓練することから始める。
次に、このポリシーを用いて直接トランジットネットワークを計画するだけでなく、解を初期化したり、解空間を探索する各ステップにおける有望な動きを提案するような、既存のメタヒューリスティックアルゴリズムと組み合わせることができることを示す。
このようなハイブリッドアルゴリズムは、古典的メタヒューリスティックフレームワークのコアコンポーネントとして強化学習によって訓練されたニューラルポリシーを用いて、ニューラルポリシーまたはメタヒューリスティックアルゴリズムによって計画されているものよりも優れたトランジットネットワークを計画できる。
ケベック州ラバル市の交通ネットワークを再設計する上で,本手法の有効性を実証し,シミュレーションの結果,既存の交通ネットワークよりも低コストで送電網が利用できることを示した。
関連論文リスト
- Learning for Cross-Layer Resource Allocation in MEC-Aided Cell-Free Networks [71.30914500714262]
移動エッジコンピューティング(MEC)を援用したセルフリーネットワーク上でのクロスレイヤリソース割り当ては、データレートを促進するために、送信およびコンピューティングリソースを十分に活用することができる。
深層学習の観点からMEC支援セルフリーネットワークのサブキャリア配置とビームフォーミング最適化について検討した。
論文 参考訳(メタデータ) (2024-12-21T10:18:55Z) - Preventing Local Pitfalls in Vector Quantization via Optimal Transport [77.15924044466976]
我々はシンクホーンアルゴリズムを用いて最適な輸送問題を最適化する新しいベクトル量子化法であるOptVQを紹介する。
画像再構成タスクの実験では,OptVQが100%のコードブック利用を実現し,現在最先端のVQNを超越していることが示された。
論文 参考訳(メタデータ) (2024-12-19T18:58:14Z) - Liner Shipping Network Design with Reinforcement Learning [1.833650794546064]
本稿では,Liner Shipping Network Design Problem (LSNDP) に対処する新しい強化学習フレームワークを提案する。
提案手法では,ALIBをベースとしたマルチコモディティ・フロー・ソルバと統合したモデルレス強化学習アルゴリズムをネットワーク設計に適用する。
論文 参考訳(メタデータ) (2024-11-13T22:49:16Z) - Online design of dynamic networks [4.6289929100615]
本稿では,動的ネットワークのオンライン設計手法を提案する。
我々はモンテカルロ木探索に基づく転がり地平線で、このオンラインデザイン問題に取り組む。
オンラインネットワーク設計の可能性は、未来的な公共交通ネットワークの設計のために示される。
論文 参考訳(メタデータ) (2024-10-11T14:50:31Z) - Learning Heuristics for Transit Network Design and Improvement with Deep Reinforcement Learning [7.660968783738993]
我々は,グラフニューラルネットを用いた深層強化学習を用いて,進化的アルゴリズムの低レベル学習を行う。
これらの学習は、70ノード以上のベンチマーク合成都市におけるアルゴリズムの結果を改善し、新しい最先端の結果を得る。
また、カナダのラヴァル市における実際の交通ネットワークのシミュレーションも改善され、2つの主要な指標で最大52%と25%のスピードで改善された。
論文 参考訳(メタデータ) (2024-04-08T22:40:57Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - A Neural-Evolutionary Algorithm for Autonomous Transit Network Design [8.610161169928796]
経路ネットワーク構築のポリシーとしてグラフニューラルネットモデルを使用し、進化的アルゴリズムにおいていくつかの突然変異演算子の1つとしてこのポリシーを使用する。
我々はこのアルゴリズムをトランジットネットワーク設計のための標準的なベンチマークセットで評価し、学習ポリシーを最大20%向上させ、リアルなベンチマークインスタンス上では最大53%の進化的アルゴリズムアプローチを立案した。
論文 参考訳(メタデータ) (2024-02-27T15:59:15Z) - A Deep Reinforcement Learning Approach for Adaptive Traffic Routing in
Next-gen Networks [1.1586742546971471]
次世代ネットワークは、トラフィックダイナミクスに基づいたネットワーク構成を自動化し、適応的に調整する必要がある。
交通政策を決定する伝統的な手法は、通常は手作りのプログラミング最適化とアルゴリズムに基づいている。
我々は適応的なトラフィックルーティングのための深層強化学習(DRL)アプローチを開発する。
論文 参考訳(メタデータ) (2024-02-07T01:48:29Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Optimal transport in multilayer networks [68.8204255655161]
本稿では,各層上の最適フローが,コストの最小化に寄与するモデルを提案する。
アプリケーションとして,各層が異なる輸送システムに関連付けられている交通ネットワークを考察する。
この結果の例をボルドー市とバスと路面電車の2層ネットワークで示し、ある状況下では路面電車網の存在が道路網の交通を著しく覆い隠している。
論文 参考訳(メタデータ) (2021-06-14T07:33:09Z) - Deep Policy Dynamic Programming for Vehicle Routing Problems [89.96386273895985]
本稿では,学習ニューラルの強みと動的プログラミングアルゴリズムの強みを組み合わせた深層ポリシー動的プログラミング(d pdp)を提案する。
D PDPは、例の解からエッジを予測するために訓練されたディープニューラルネットワークから派生したポリシーを使用して、DP状態空間を優先し、制限する。
本研究では,旅行セールスマン問題 (TSP) と車両ルーティング問題 (VRP) の枠組みを評価し,ニューラルネットワークが(制限された)DPアルゴリズムの性能を向上させることを示す。
論文 参考訳(メタデータ) (2021-02-23T15:33:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。