論文の概要: Deep Inverse Reinforcement Learning for Route Choice Modeling
- arxiv url: http://arxiv.org/abs/2206.10598v1
- Date: Sat, 18 Jun 2022 06:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:08:12.727454
- Title: Deep Inverse Reinforcement Learning for Route Choice Modeling
- Title(参考訳): 経路選択モデルのための深部逆強化学習
- Authors: Zhan Zhao, Yuebing Liang
- Abstract要約: 経路選択モデリングは交通計画と需要予測の基本的な課題である。
本研究では,リンクベース経路選択モデルのための一般的な逆強化学習(IRL)フレームワークを提案する。
中国上海のタクシーGPSデータに基づく実験結果から,提案モデルの性能改善を検証した。
- 参考スコア(独自算出の注目度): 0.6853165736531939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Route choice modeling, i.e., the process of estimating the likely path that
individuals follow during their journeys, is a fundamental task in
transportation planning and demand forecasting. Classical methods generally
adopt the discrete choice model (DCM) framework with linear utility functions
and high-level route characteristics. While several recent studies have started
to explore the applicability of deep learning for travel choice modeling, they
are all path-based with relatively simple model architectures and cannot take
advantage of detailed link-level features. Existing link-based models, while
theoretically promising, are generally not as scalable or flexible enough to
account for the destination characteristics. To address these issues, this
study proposes a general deep inverse reinforcement learning (IRL) framework
for link-based route choice modeling, which is capable of incorporating
high-dimensional features and capturing complex relationships. Specifically, we
adapt an adversarial IRL model to the route choice problem for efficient
estimation of destination-dependent reward and policy functions. Experiment
results based on taxi GPS data from Shanghai, China validate the improved
performance of the proposed model over conventional DCMs and other imitation
learning baselines, even for destinations unseen in the training data. We also
demonstrate the model interpretability using explainable AI techniques. The
proposed methodology provides a new direction for future development of route
choice models. It is general and should be adaptable to other route choice
problems across different modes and networks.
- Abstract(参考訳): 経路選択モデリング(英: route choice modeling、すなわち、個人が旅行中に従う可能性の高い経路を推定する過程)は、輸送計画と需要予測において基本的なタスクである。
古典的手法は一般に線形効用関数と高レベル経路特性を持つ離散選択モデル(DCM)フレームワークを採用する。
旅行選択モデリングにおけるディープラーニングの適用性について、最近のいくつかの研究が始まっているが、いずれも比較的単純なモデルアーキテクチャを持つパスベースであり、詳細なリンクレベル機能を活用できない。
既存のリンクベースモデルは理論的には有望だが、一般的には目的地の特徴を考慮できるほどスケーラブルで柔軟ではない。
そこで本研究では,高次元の特徴を取り入れ,複雑な関係を捉えることが可能な,リンクベース経路選択モデリングのための汎用的奥行き逆強化学習(irl)フレームワークを提案する。
具体的には、経路選択問題に逆IRLモデルを適用し、目的地依存報酬と政策関数の効率的な推定を行う。
中国上海のタクシーGPSデータに基づく実験は、訓練データに見つからない目的地であっても、従来のDCMや他の模倣学習ベースラインよりも提案モデルの性能が向上していることを検証する。
また、説明可能なAI技術を用いてモデル解釈可能性を示す。
提案手法は,経路選択モデルの開発に向けた新たな方向性を提供する。
汎用的で、異なるモードやネットワークにまたがる他の経路選択問題に適応可能であるべきである。
関連論文リスト
- Guided Trajectory Generation with Diffusion Models for Offline Model-based Optimization [19.228156994045587]
高速領域への軌道生成のための条件付き生成モデリング手法を提案する。
実験の結果,本手法はデザインベンチの競争基準よりも優れていた。
論文 参考訳(メタデータ) (2024-06-29T06:12:36Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Hub-Pathway: Transfer Learning from A Hub of Pre-trained Models [89.44031286278347]
本稿では,モデルハブからの知識伝達を可能にするハブパスウェイフレームワークを提案する。
提案するフレームワークは、目的のタスク固有の損失でエンドツーエンドにトレーニングすることができる。
コンピュータビジョンおよび強化学習タスクの実験結果は、このフレームワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-06-08T08:00:12Z) - Planning with Diffusion for Flexible Behavior Synthesis [125.24438991142573]
我々は、できるだけ多くの軌道最適化パイプラインをモデリング問題に折り畳むことがどう見えるか検討する。
我々の技術的アプローチの核心は、軌道を反復的にデノベーションすることで計画する拡散確率モデルにある。
論文 参考訳(メタデータ) (2022-05-20T07:02:03Z) - Predictive Control Using Learned State Space Models via Rolling Horizon
Evolution [2.1016374925364616]
本稿では、進化的アルゴリズム計画手法と、ディープラーニングと変分推論を用いて学習したモデルを組み合わせたテーマについて検討する。
視覚ナビゲーションタスクのセットにおいて,オンラインプランニングを確実に行うエージェントを用いて,このアプローチを実証する。
論文 参考訳(メタデータ) (2021-06-25T23:23:42Z) - Bridging Imagination and Reality for Model-Based Deep Reinforcement
Learning [72.18725551199842]
BrIdging Reality and Dream (BIRD) と呼ばれる新しいモデルに基づく強化学習アルゴリズムを提案する。
虚構と実軌跡の相互情報を最大化し、虚構から学んだ政策改善を実軌跡に容易に一般化できるようにする。
提案手法は, モデルベース計画のサンプル効率を向上し, 挑戦的なビジュアル制御ベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-10-23T03:22:01Z) - Pedestrian Trajectory Prediction with Convolutional Neural Networks [0.3787359747190393]
本稿では,新しい2次元畳み込みモデルを導入し,歩行者軌道予測への新たなアプローチを提案する。
この新モデルはリカレントモデルより優れており、ETHとTrajNetデータセットの最先端の結果が得られる。
また,歩行者の位置と強力なデータ拡張手法を効果的に表現するシステムを提案する。
論文 参考訳(メタデータ) (2020-10-12T15:51:01Z) - Haar Wavelet based Block Autoregressive Flows for Trajectories [129.37479472754083]
歩行者等の軌道予測は,自律型エージェントの性能向上に不可欠である。
本稿では分割結合を利用した新しいハールウェーブレットに基づくブロック自己回帰モデルを提案する。
実世界の2つのデータセット上で、多種多様な正確な軌跡を生成するアプローチの利点について説明する。
論文 参考訳(メタデータ) (2020-09-21T13:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。