論文の概要: TrajGPT-R: Generating Urban Mobility Trajectory with Reinforcement Learning-Enhanced Generative Pre-trained Transformer
- arxiv url: http://arxiv.org/abs/2602.20643v1
- Date: Tue, 24 Feb 2026 07:44:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.653679
- Title: TrajGPT-R: Generating Urban Mobility Trajectory with Reinforcement Learning-Enhanced Generative Pre-trained Transformer
- Title(参考訳): TrajGPT-R:Reinforcement Learning-Enhanced Generative Pre-trained Transformerによる都市移動軌道生成
- Authors: Jiawei Wang, Chuang Yang, Jiawei Yong, Xiaohang Xu, Hongjun Wang, Noboru Koshizuka, Shintaro Fukushima, Ryosuke Shibasaki, Renhe Jiang,
- Abstract要約: 移動軌道は都市動態の理解と都市計画の強化に不可欠である。
しかし、そのようなデータへのアクセスはプライバシーの懸念によってしばしば妨げられる。
本研究は,大規模都市移動軌道生成のための変革的枠組みを提案する。
- 参考スコア(独自算出の注目度): 22.847988014952488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobility trajectories are essential for understanding urban dynamics and enhancing urban planning, yet access to such data is frequently hindered by privacy concerns. This research introduces a transformative framework for generating large-scale urban mobility trajectories, employing a novel application of a transformer-based model pre-trained and fine-tuned through a two-phase process. Initially, trajectory generation is conceptualized as an offline reinforcement learning (RL) problem, with a significant reduction in vocabulary space achieved during tokenization. The integration of Inverse Reinforcement Learning (IRL) allows for the capture of trajectory-wise reward signals, leveraging historical data to infer individual mobility preferences. Subsequently, the pre-trained model is fine-tuned using the constructed reward model, effectively addressing the challenges inherent in traditional RL-based autoregressive methods, such as long-term credit assignment and handling of sparse reward environments. Comprehensive evaluations on multiple datasets illustrate that our framework markedly surpasses existing models in terms of reliability and diversity. Our findings not only advance the field of urban mobility modeling but also provide a robust methodology for simulating urban data, with significant implications for traffic management and urban development planning. The implementation is publicly available at https://github.com/Wangjw6/TrajGPT_R.
- Abstract(参考訳): モビリティ・トラジェクトリは都市動態の理解と都市計画の強化に不可欠であるが、そのようなデータへのアクセスはプライバシーの懸念によってしばしば妨げられる。
本研究では, 変圧器をベースとしたモデルに2段階のプロセスで事前学習, 微調整を施し, 大規模都市移動軌道を生成するための変圧機構を提案する。
当初、軌道生成は、トークン化時に語彙空間が大幅に減少するオフライン強化学習(RL)問題として概念化されている。
Inverse Reinforcement Learning(IRL)の統合により、トラジェクティブワイド報酬信号のキャプチャが可能になり、履歴データを活用して個人のモビリティの嗜好を推測する。
その後、構築された報酬モデルを用いて事前学習モデルを微調整し、長期クレジット割り当てやスパース報酬環境の扱いなど、従来のRLベースの自己回帰手法に固有の課題を効果的に解決する。
複数のデータセットに対する総合的な評価は、我々のフレームワークが信頼性と多様性の点で既存のモデルを大きく上回っていることを示している。
都市モビリティモデリングの分野を前進させるだけでなく、交通管理や都市開発計画に大きな影響を与える都市データシミュレーションのための堅牢な方法論も提供する。
実装はhttps://github.com/Wangjw6/TrajGPT_R.comで公開されている。
関連論文リスト
- Graph RAG as Human Choice Model: Building a Data-Driven Mobility Agent with Preference Chain [4.675541221895496]
LLM(Large Language Models)を利用した生成エージェントの最近の進歩は、広範囲なデータセットに頼ることなく、人間の振る舞いをシミュレートする可能性を示している。
本稿では,LLMとグラフ検索・拡張生成(RAG)を統合し,交通システムにおける人間行動の文脈認識シミュレーションを強化する新しい手法であるPreference Chainを紹介する。
論文 参考訳(メタデータ) (2025-08-22T07:50:57Z) - Collaborative Imputation of Urban Time Series through Cross-city Meta-learning [54.438991949772145]
メタ学習型暗黙的ニューラル表現(INR)を利用した新しい協調的計算パラダイムを提案する。
次に,モデルに依存しないメタ学習による都市間協調学習手法を提案する。
20のグローバル都市から得られた多様な都市データセットの実験は、我々のモデルの優れた計算性能と一般化可能性を示している。
論文 参考訳(メタデータ) (2025-01-20T07:12:40Z) - Physics-guided Active Sample Reweighting for Urban Flow Prediction [75.24539704456791]
都市フロー予測は、バス、タクシー、ライド駆動モデルといった交通サービスのスループットを見積もる、微妙な時間的モデリングである。
最近の予測解は、物理学誘導機械学習(PGML)の概念による改善をもたらす。
我々は、PN(atized Physics-guided Network)を開発し、P-GASR(Physical-guided Active Sample Reweighting)を提案する。
論文 参考訳(メタデータ) (2024-07-18T15:44:23Z) - Spatio-Temporal Few-Shot Learning via Diffusive Neural Network Generation [25.916891462152044]
本稿では,都市知識伝達を伴う複雑な数ショット学習のための新しい生成事前学習フレームワークであるGPDを提案する。
我々は、プロンプトで導かれる調整されたニューラルネットワークを生成する生成拡散モデルを再放送する。
GPDは、トラフィック速度予測やクラウドフロー予測といったタスクのデータセットにおける最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-02-19T08:11:26Z) - MobilityGPT: Enhanced Human Mobility Modeling with a GPT model [15.16172813601417]
我々は, 自動回帰生成タスクとして, 生成事前学習型トランスフォーマアーキテクチャを活用して, 人間のモビリティモデリングを再構築する。
本稿では,ジオスパティカル・アウェア・ジェネレーティブ・モデルであるモビリティGPTを提案する。
実世界のデータセットの実験では、モビリティGPTは最先端の手法よりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-05T18:22:21Z) - Reinforcement Learning with Human Feedback for Realistic Traffic
Simulation [53.85002640149283]
効果的なシミュレーションの鍵となる要素は、人間の知識と整合した現実的な交通モデルの導入である。
本研究では,現実主義に対する人間の嗜好のニュアンスを捉えることと,多様な交通シミュレーションモデルを統合することの2つの主な課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-01T19:29:53Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - Continuous Trajectory Generation Based on Two-Stage GAN [50.55181727145379]
本稿では,道路網上の連続軌道を生成するために,新たな2段階生成対向フレームワークを提案する。
具体的には、A*アルゴリズムの人間の移動性仮説に基づいてジェネレータを構築し、人間の移動性について学習する。
判別器では, 逐次報酬と移動ヤウ報酬を組み合わせることで, 発電機の有効性を高める。
論文 参考訳(メタデータ) (2023-01-16T09:54:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。