論文の概要: Inverting the Fundamental Diagram and Forecasting Boundary Conditions:
How Machine Learning Can Improve Macroscopic Models for Traffic Flow
- arxiv url: http://arxiv.org/abs/2303.12740v1
- Date: Tue, 21 Mar 2023 11:07:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:28:59.707430
- Title: Inverting the Fundamental Diagram and Forecasting Boundary Conditions:
How Machine Learning Can Improve Macroscopic Models for Traffic Flow
- Title(参考訳): 基本図の反転と境界条件の予測:機械学習による交通流のマクロモデルの改善
- Authors: Maya Briani, Emiliano Cristiani and Elia Onofri
- Abstract要約: 高速道路を走行する車両のフラックスと速度のデータを,固定センサで収集し,車線および車種別に分類したデータセットについて検討する。
1) 渋滞がセンサの下に現れる場合, 2) 今後センサの下に通過する車両の総量を推定する。
これらの情報片は、センサ間のトラフィックフローのダイナミクスを記述したLWRベースの1次1次マルチクラスモデルの精度を向上させるために使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we aim at developing new methods to join machine learning
techniques and macroscopic differential models for vehicular traffic estimation
and forecast. It is well known that data-driven and model-driven approaches
have (sometimes complementary) advantages and drawbacks. We consider here a
dataset with flux and velocity data of vehicles moving on a highway, collected
by fixed sensors and classified by lane and by class of vehicle. By means of a
machine learning model based on an LSTM recursive neural network, we
extrapolate two important pieces of information: 1) if congestion is appearing
under the sensor, and 2) the total amount of vehicles which is going to pass
under the sensor in the next future (30 min). These pieces of information are
then used to improve the accuracy of an LWR-based first-order multi-class model
describing the dynamics of traffic flow between sensors. The first piece of
information is used to invert the (concave) fundamental diagram, thus
recovering the density of vehicles from the flux data, and then inject directly
the density datum in the model. This allows one to better approximate the
dynamics between sensors, especially if an accident happens in a not monitored
stretch of the road. The second piece of information is used instead as
boundary conditions for the equations underlying the traffic model, to better
reconstruct the total amount of vehicles on the road at any future time. Some
examples motivated by real scenarios will be discussed. Real data are provided
by the Italian motorway company Autovie Venete S.p.A.
- Abstract(参考訳): 本稿では,車両交通量推定と予測のための機械学習手法とマクロ微分モデルとを結合する新しい手法の開発を目標とする。
データ駆動型およびモデル駆動型アプローチが(時には相補的な)利点と欠点を持つことはよく知られている。
ここでは,道路上を走行する車両のフラックスデータと速度データを含むデータセットを,固定センサで収集し,車線別と車種別で分類する。
lstm再帰的ニューラルネットワークに基づく機械学習モデルを用いて、2つの重要な情報を推定する。
1)センサの下に渋滞が現れていれば,
2) 今後,センサ下を通過する車両の総量(30分)。
これらの情報片は、センサ間のトラフィックフローのダイナミクスを記述したLWRベースの1次1次マルチクラスモデルの精度を向上させるために使用される。
最初の情報片は(凹面)基本図を反転させるために使用され、これによりフラックスデータから車両の密度を回復し、モデル内の密度ダタムを直接注入する。
これにより、特に道路の監視されていない区間で事故が発生した場合、センサー間のダイナミクスをよりよく近似することができる。
第2の情報は、交通モデルの基礎となる方程式の境界条件として代わりに使われ、将来の道路上の車両の総量をより正確に再構築する。
実際のシナリオを動機とするいくつかの例が議論される。
実際のデータはイタリアの自動車会社Autovie Venete S.p.Aが提供している。
関連論文リスト
- MA2GCN: Multi Adjacency relationship Attention Graph Convolutional
Networks for Traffic Prediction using Trajectory data [1.147374308875151]
本稿では,新しい交通渋滞予測モデルを提案する。マルチアジャシエンス関係アテンショングラフ畳み込みネットワーク(MA2GCN)。
車両軌跡データをグリッド形式でグラフ構造化データに変換し、異なるグリッド間の移動量に基づいて車両の進入・退避行列を提案した。
複数のベースラインと比較すると,上海タクシーのGPSトラジェクトリ・データセットで最高の性能を示した。
論文 参考訳(メタデータ) (2024-01-16T14:22:44Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Pre-training on Synthetic Driving Data for Trajectory Prediction [61.520225216107306]
軌道予測におけるデータ不足の問題を緩和するパイプラインレベルのソリューションを提案する。
我々は、駆動データを生成するためにHDマップ拡張とトラジェクトリ合成を採用し、それらを事前学習することで表現を学習する。
我々は、データ拡張と事前学習戦略の有効性を実証するための広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-18T19:49:22Z) - SAPI: Surroundings-Aware Vehicle Trajectory Prediction at Intersections [4.982485708779067]
SAPIは交差点での車両軌道を予測するためのディープラーニングモデルである。
提案モデルは2つの畳み込みニューラルネットワーク(CNN)と1つのデコーダからなる。
我々は、自動運転車を介して現実世界の交差点で収集されたプロプライエタリなデータセット上でSAPIを評価する。
論文 参考訳(メタデータ) (2023-06-02T07:10:45Z) - CARNet: A Dynamic Autoencoder for Learning Latent Dynamics in Autonomous
Driving Tasks [11.489187712465325]
自律運転システムは、世界の抽象的な記述を形成するために、様々なセンサから収集した情報を効果的に活用すべきである。
オートエンコーダのようなディープラーニングモデルは、受信データのストリームからコンパクトな潜在表現を学習できるため、その目的のために使用できる。
この研究は、自動エンコーダとリカレントニューラルネットワークを組み合わせて現在の潜伏表現を学習する、複合dynAmicautoencodeRネットワークアーキテクチャであるCARNetを提案する。
論文 参考訳(メタデータ) (2022-05-18T04:15:42Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Physics-Informed Deep Learning for Traffic State Estimation [3.779860024918729]
交通状態推定(TSE)は、部分的に観測されたデータを用いて道路セグメント上の交通変数(例えば密度)を再構築する。
本論文では,少量の観測データを用いて高品質なTSEを効率的に実行するための物理情報深層学習(PIDL)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2021-01-17T03:28:32Z) - A Physics-Informed Deep Learning Paradigm for Car-Following Models [3.093890460224435]
物理モデルによるニューラルネットワークに基づくカーフォローモデルの開発を行っています。
2種類のPIDL-CFM問題について検討し,その1つは加速のみを予測し,もう1つは加速のみを予測し,モデルパラメータを発見する。
その結果,無力者よりも物理によって学習されるニューラルネットの性能が向上した。
論文 参考訳(メタデータ) (2020-12-24T18:04:08Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。