論文の概要: Noise-Aware Generative Microscopic Traffic Simulation
- arxiv url: http://arxiv.org/abs/2508.07453v1
- Date: Sun, 10 Aug 2025 18:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.864291
- Title: Noise-Aware Generative Microscopic Traffic Simulation
- Title(参考訳): 騒音を考慮した微視的交通シミュレーション
- Authors: Vindula Jayawardana, Catherine Tang, Junyi Ji, Jonah Philion, Xue Bin Peng, Cathy Wu,
- Abstract要約: 我々は,現実的なセンサ不完全性を維持するために設計された標準化されたデータセットを提案する。
I24-MSDにおけるノイズ認識損失関数の自律運転コミュニティにおける既存の生成モデルの適用について検討する。
- 参考スコア(独自算出の注目度): 17.863740397202882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately modeling individual vehicle behavior in microscopic traffic simulation remains a key challenge in intelligent transportation systems, as it requires vehicles to realistically generate and respond to complex traffic phenomena such as phantom traffic jams. While traditional human driver simulation models offer computational tractability, they do so by abstracting away the very complexity that defines human driving. On the other hand, recent advances in infrastructure-mounted camera-based roadway sensing have enabled the extraction of vehicle trajectory data, presenting an opportunity to shift toward generative, agent-based models. Yet, a major bottleneck remains: most existing datasets are either overly sanitized or lack standardization, failing to reflect the noisy, imperfect nature of real-world sensing. Unlike data from vehicle-mounted sensors-which can mitigate sensing artifacts like occlusion through overlapping fields of view and sensor fusion-infrastructure-based sensors surface a messier, more practical view of challenges that traffic engineers encounter. To this end, we present the I-24 MOTION Scenario Dataset (I24-MSD)-a standardized, curated dataset designed to preserve a realistic level of sensor imperfection, embracing these errors as part of the learning problem rather than an obstacle to overcome purely from preprocessing. Drawing from noise-aware learning strategies in computer vision, we further adapt existing generative models in the autonomous driving community for I24-MSD with noise-aware loss functions. Our results show that such models not only outperform traditional baselines in realism but also benefit from explicitly engaging with, rather than suppressing, data imperfection. We view I24-MSD as a stepping stone toward a new generation of microscopic traffic simulation that embraces the real-world challenges and is better aligned with practical needs.
- Abstract(参考訳): 車両が幻の交通渋滞のような複雑な交通現象を現実的に生成し、対応する必要があるため、微視的交通シミュレーションにおける個々の車両の挙動を正確にモデル化することは、インテリジェント交通システムにおいて重要な課題である。
従来の人間のドライバーシミュレーションモデルは計算的トラクタビリティを提供するが、人間の運転を定義する複雑さを抽象化することで実現している。
一方、近年のインフラ搭載カメラによる道路センサの進歩により、車両軌跡データの抽出が可能となり、生成型エージェントベースモデルへ移行する機会が提示された。
ほとんどの既存のデータセットは過度にサニタイズされているか、標準化が欠如しているため、現実のセンシングのノイズで不完全な性質を反映していない。
車両に搭載されたセンサーのデータとは違って、重なり合う視野やセンサー融合をベースとしたセンサーが、交通機関のエンジニアが直面する課題のより現実的な見方を表面化する。
この目的のために,I-24 MOTION Scenario Dataset (I24-MSD) は,センサの不完全性の現実的なレベルを保ち,これらのエラーを前処理から純粋に克服する障害ではなく,学習問題の一部として受け入れることを目的として,標準化された,キュレートされたデータセットである。
我々は、コンピュータビジョンにおけるノイズ認識学習戦略から、ノイズ認識損失関数を持つI24-MSDの自律運転コミュニティにおける既存の生成モデルをさらに適応させる。
以上の結果から,このようなモデルは,現実主義における従来のベースラインを上回るだけでなく,データ不完全性を抑えることよりも,明示的に関与することのメリットも示している。
我々は、I24-MSDを、現実の課題を受け入れ、実用的なニーズに整合した新しい世代の微視的交通シミュレーションへの一歩であると考えている。
関連論文リスト
- Ctx2TrajGen: Traffic Context-Aware Microscale Vehicle Trajectories using Generative Adversarial Imitation Learning [1.2023648183416153]
Ctx2TrajGenは、GAILを用いて現実的な都市走行挙動を合成する文脈対応トラジェクトリ生成フレームワークである。
Ctx2TrajGenは、周囲の車両と道路形状を明示的に条件付けすることで、現実世界のコンテキストに合わせて対話対応の軌道を生成する。
論文 参考訳(メタデータ) (2025-07-23T11:21:27Z) - How Real is CARLAs Dynamic Vision Sensor? A Study on the Sim-to-Real Gap in Traffic Object Detection [0.0]
イベントカメラは、交差点でのリアルタイム物体検出に適している。
堅牢なイベントベース検出モデルの開発は、注釈付き現実世界データセットの可用性の制限によって妨げられている。
本研究では,CARLAs DVSを用いたイベントベース物体検出におけるsim-to-realギャップの定量的解析を行った。
論文 参考訳(メタデータ) (2025-06-16T17:27:43Z) - A Survey of World Models for Autonomous Driving [63.33363128964687]
自律運転の最近の進歩は、堅牢な世界モデリングの進歩によって推進されている。
世界モデルは、マルチセンサーデータ、セマンティックキュー、時間ダイナミクスを統合する駆動環境の高忠実度表現を提供する。
本稿では、自律運転の世界モデルにおける最近の進歩を体系的にレビューする。
論文 参考訳(メタデータ) (2025-01-20T04:00:02Z) - An Approach to Systematic Data Acquisition and Data-Driven Simulation for the Safety Testing of Automated Driving Functions [32.37902846268263]
オープンワールド」の安全性への影響に関連する研究開発分野では、シミュレーションのパラメータ化や検証を行うための実世界のデータが著しく不足している。
本稿では、異種な方法で公共交通のデータを体系的に取得し、それらを統一表現に変換し、自動運転機能のデータ駆動仮想検証に使用する交通行動モデルを自動的にパラメータ化する手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T23:24:27Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - CADSim: Robust and Scalable in-the-wild 3D Reconstruction for
Controllable Sensor Simulation [44.83732884335725]
センサシミュレーションでは、車などの交通参加者を高品質な外観と明瞭な幾何学でモデル化する。
現在の再構築アプローチは、その広さとノイズのために、Wildのセンサーデータに苦労している。
本稿では,車体形状を自動再構成するために,CADモデルの小さなセットと微分レンダリングを併用したCADSimを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:56:59Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - Reinforcement Learning with Human Feedback for Realistic Traffic
Simulation [53.85002640149283]
効果的なシミュレーションの鍵となる要素は、人間の知識と整合した現実的な交通モデルの導入である。
本研究では,現実主義に対する人間の嗜好のニュアンスを捉えることと,多様な交通シミュレーションモデルを統合することの2つの主な課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-01T19:29:53Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。