# (参考訳) 深層学習法に基づくトップビュー画像列における車両軌跡予測 [全文訳有]

Vehicle trajectory prediction in top-view image sequences based on deep learning method ( http://arxiv.org/abs/2102.01749v1 )

ライセンス: CC BY 4.0
Zahra Salahshoori Nejad, Hamed Heravi, Ali Rahimpour Jounghani, Abdollah Shahrezaie, Afshin Ebrahimi(参考訳) 毎年、世界中の多くの負傷者や死亡者が自動車事故に関連しています。 この値は、運転支援システムの使用により、最近ある程度減少している。 運転支援システム(すなわち自動運転システム)の開発は、この数を減らす上で重要な役割を果たす。 自動走行車および高度な安全システムにおいて,周辺車両の移動を推定・予測することが不可欠である。 さらに,事故時の運転者の行動,車両の移動と周囲の車両の歴史,交通現場における位置など,多くの要因が軌跡の予測に影響を及ぼしている。 車両は交通の安全な経路を移動し、最短で他のドライバーの予測不能な行動に反応しなければならない。 ここでは,自動車の走行経路を予測するために,道路の空中画像から得られた画像から学習した計算量が少ないモデルを提案する。 本手法は,ソーシャルテンソルを用いたエンコーダデコーダモデルに基づいて,周囲の車両の動きが対象車両に与える影響をモデル化する。 提案モデルは,対象車両の移動履歴とその周辺状況に関する画像を見るだけで,任意の高速道路における車両の将来経路を予測できる。 深層学習はこれらの画像の特徴を抽出するツールとして用いられた。 HighDデータベースを用いて道路の空中画像の画像データセットを作成し,本データベース上でのモデルの性能評価を行った。 提案手法は, 5秒間, 1.91 の RMSE を達成し, 前回の研究では, 最良経路予測法よりも誤差が少ないことがわかった。

Annually, a large number of injuries and deaths around the world are related to motor vehicle accidents. This value has recently been reduced to some extent, via the use of driver-assistance systems. Developing driver-assistance systems (i.e., automated driving systems) can play a crucial role in reducing this number. Estimating and predicting surrounding vehicles' movement is essential for an automated vehicle and advanced safety systems. Moreover, predicting the trajectory is influenced by numerous factors, such as drivers' behavior during accidents, history of the vehicle's movement and the surrounding vehicles, and their position on the traffic scene. The vehicle must move over a safe path in traffic and react to other drivers' unpredictable behaviors in the shortest time. Herein, to predict automated vehicles' path, a model with low computational complexity is proposed, which is trained by images taken from the road's aerial image. Our method is based on an encoder-decoder model that utilizes a social tensor to model the effect of the surrounding vehicles' movement on the target vehicle. The proposed model can predict the vehicle's future path in any freeway only by viewing the images related to the history of the target vehicle's movement and its neighbors. Deep learning was used as a tool for extracting the features of these images. Using the HighD database, an image dataset of the road's aerial image was created, and the model's performance was evaluated on this new database. We achieved the RMSE of 1.91 for the next 5 seconds and found that the proposed method had less error than the best path-prediction methods in previous studies.
公開日: Tue, 2 Feb 2021 20:48:19 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。


    Page: /      
Vehicle trajectory prediction in top-view image sequences based on deep learning 深層学習に基づくトップビュー画像シーケンスにおける車両軌道予測 0.83
method Zahra Salahshoori nejad1*, Hamed Heravi1*, Ali Rahimpour Jounghani2, Abdollah shahrezaie1, Afshin Ebrahimi1. 方法 Zahra Salahshoori nejad1*, Hamed Heravi1*, Ali Rahimpour Jounghani2, Abdollah shahrezaie1, Afshin Ebrahimi1 0.81
*same contribution 1Department of Electrical Engineering, Sahand University of Technology, Tabriz, Iran ※同じ貢献 1 イラン・タブリズ・サド工科大学電気工学科 0.61
2Department of Psychological Sciences, University of California, Merced, California, USA 第2部 カリフォルニア大学 心理学科学部 カリフォルニア州 メルセド校 0.62
Type of article: Research paper 論文の種類:研究論文 0.76
Corresponding Author: Afshin Ebrahimi 対応する著者 アフシン・エブラヒミ 0.36
E-mail: aebrahimi@sut.ac.ir メール: aebrahimi@sut.ac.ir 0.67
Address: Tel: 098 4133459374 所在地 TEL:098 4133459374 0.49
Fax: 098 4133459374 Fax:098 4133459374 0.84
Abstract Annually, a large number of injuries and deaths around the world are related to motor vehicle accidents. 概要 毎年、世界中の多くの負傷者や死亡者が自動車事故に関連しています。 0.61
This value has recently been reduced to some extent, via the use of driver-assistance systems. この価値は 最近、運転支援システムの利用により、ある程度削減されている。 0.72
Developing driver-assistance ドライバアシスタンスの開発 0.54
systems (i.e., automated driving systems) can play a crucial role in reducing this number. システム(すなわち自動運転システム)は、この数を減らす上で重要な役割を果たす。 0.80
Estimating and predicting surrounding vehicles' movement is essential for an automated vehicle and advanced safety systems. 推定と予測 周囲の車両の動きは 自動走行車や 高度な安全システムにとって 不可欠です 0.77
Moreover, predicting the trajectory is influenced by numerous factors, such as drivers' behavior during accidents, history of the また、 軌道予測は、事故時の運転者の行動、事故の歴史など、多くの要因に影響される。 0.65
vehicle's movement and the surrounding vehicles, and their position on the traffic scene. 車両の動きと周囲の車両、および交通現場上のそれらの位置。 0.78
The vehicle must move over 車両は移動しなければならない 0.72
a safe path in traffic and react to other drivers' unpredictable behaviors in the shortest time. 交通の安全な経路で 他のドライバーの予測不能な行動に 最短で反応する 0.68
Herein, to predict automated ここで 自動化の予測は 0.76
vehicles' path, a model with low computational complexity is proposed, which is trained by images taken from the 計算複雑性の低いモデルである車両の経路が提案され、その画像から学習される。 0.74
road's aerial image. Our method is based on an encoder-decoder model that utilizes a social tensor to model the effect 道路の航空画像。 本手法は,社会的テンソルを用いて効果をモデル化するエンコーダ・デコーダモデルに基づく。 0.72
of the surrounding vehicles' movement on the target vehicle. 周囲の車両が目標の車両上で動きます 0.64
The proposed model can predict the vehicle's future path 提案モデルは、車両の将来の経路を予測することができる 0.76
in any freeway only by viewing the images related to the history of the target vehicle's movement and its neighbors. 任意の高速道路でのみ、ターゲット車両の移動とその隣人の歴史に関連する画像を見ることによって。 0.73
Deep learning was used as a tool for extracting the features of these images. 深層学習はこれらの画像の特徴を抽出するツールとして用いられた。 0.78
Using the HighD database, an image 画像であるhighdデータベースを使って 0.82
dataset of the road's aerial image was created, and the model's performance was evaluated on this new database. 道路の航空画像のデータセットが作成され、モデルのパフォーマンスはこの新しいデータベースで評価されました。 0.85
We achieved the RMSE of 1.91 for the next 5 seconds and found that the proposed method had less error than the best 私たち 次の5秒で1.91のRMSEを達成し、提案手法が最良値よりも誤りが少ないことを発見した。
訳抜け防止モード: 私たち 次の5秒で RMSE 1.91 を達成し 提案した手法は 最良の方法よりも誤差が少なかった
path-prediction methods in previous studies. 先行研究における経路予測法 0.68
Keywords: Deep learning; Convolutional neural networks; LSTM networks; Path prediction; Automated driving キーワード:ディープラーニング;畳み込みニューラルネットワーク;LSTMネットワーク;パス予測;自動運転 0.77
1. Introduction Driving is a highly skilled task that requires an extensive understanding of the other road users' goals. 1. はじめに 運転は、他の道路ユーザーの目標を幅広く理解する必要がある高度に熟練したタスクです。 0.71
This understanding allows drivers to take a safe path through the traffic. これ 理解することで ドライバーは交通を安全に通過できる 0.69
Although this issue may be natural for この問題は自然かもしれませんが 0.66
an experienced human driver, an accurate understanding of the other drivers' goals remains an unsolved 経験豊富な人間ドライバー、他のドライバーの目標の正確な理解は未解決のままである 0.72
problem for advanced driver-assistance systems and automated vehicles. 先進運転支援システムと自動走行車の課題 0.59
While driving, drivers must continuously interact with one another. 運転中、ドライバーは継続的に相互作用する必要があります。 0.64
Their behavior considerably affects the safety of driving. 行動が影響します。 運転の安全性。 0.75
Notably, an experienced driver takes appropriate measures based on accurate predictions 特に経験豊富なドライバーは、正確な予測に基づいて適切な措置を取る 0.70
of the traffic status [1]. 交通状況について[1]。 0.53
This specific phenomenon is also performed in automated driving. この特殊な現象は自動走行でも行われる。 0.69
Automated vehicles must ensure the driver's safety and comfort when passing through the traffic flow. 自動 車両は運転者の安全と快適さを 確保しなければならない 交通の流れを通り抜ける時 0.75
Reliable prediction of vehicles' future movements must be performed quickly and considering the traffic components 信頼性 車両の将来の動きの予測は、交通成分を考慮し、迅速に行う必要がある 0.69
[2]. To this end, the vehicle should be able to analyze the future movement of the surrounding vehicles. [2]. この目的のために、車両は周囲の車両の将来の動きを解析できるべきである。 0.74
This ability has been included in the existing path-design algorithms [3, 4], which depend on estimating the future これ 能力は、将来の推定に依存する既存のパス設計アルゴリズム [3, 4] に含まれています。 0.77
paths of the surrounding vehicles [5]. 周囲の車両の経路 [5] 0.64
If the vehicle can achieve a proper understanding of its surrounding 車両が周囲の適切な理解を達成できる場合。 0.78
environment, it can design its path of movement in proportion to the situation at hand, such that the risk of 環境、それは手の状況に比例して動きのパスを設計することができます。
訳抜け防止モード: 環境、それは手の状況に比例して動きのパスを設計することができます。 リスクが高まるほど
accidents would be minimized. 事故は最小限に抑えられます 0.61
To improve the safety of automated driving, it is essential to use a reliable prediction method. 自動運転の安全性を向上させるためには,信頼性の高い予測手法が不可欠である。 0.75
This method must provide accurate prediction in sufficient time and should have satisfactory efficiency and reliability. この方法 十分な時間で正確な予測をし 十分な効率と信頼性を持っていなければなりません 0.73
Generally, two steps are required for designing such a practical system. 一般に、このような実用的なシステムを設計するには2つのステップが必要である。 0.56
In the first step, the immediate 最初のステップで、すぐに。 0.72
identification and tracking of the surrounding vehicles and, in the second step, the design and execution of 周囲の車両の識別と追跡 そして第2段階では 設計と実行 0.61
algorithms with low computational complexity for ensuring real-time deduction should be performed リアルタイム推論を確実にするための計算複雑性の低いアルゴリズム 0.78
because timely and successful prediction can lead to better coordination between automated vehicles [6]. タイムリーで成功した予測は 自動走行車同士の調整を 改善します [6] 0.64
One of the most important parts of designing a path-prediction algorithm is to select appropriate パス予測アルゴリズムを設計する上で最も重要な部分の1つは、適切な選択である。 0.67
inputs for model training. モデルトレーニング用の入力。 0.80
The proposed methods need the manual extraction of features to train prediction 提案手法は,予測の訓練に手動による特徴抽出を必要とする 0.74
models. As large driving datasets are required, the non-use of automatic data labeling methods that can モデル。 大規模なデータ集合を必要とするため、自動データラベリングの非使用法 0.72
accelerate real-time applications' functioning is a literature gap. リアルタイムアプリケーションの機能加速は、文学的ギャップである。 0.65
One solution is to directly utilize images to 1つの解決策は 画像を直接利用し 0.79
view the driving scene for the path prediction and programming algorithms that do not need multiple 複数を必要としない経路予測とプログラミングアルゴリズムのための運転シーンを見る 0.81
feature engineering steps in many methods. 多くの方法で特徴工学のステップ。 0.74
Recently, deep convolutional neural networks (CNNs) have become widely popular in many domains and 近年,多くの領域で深層畳み込みニューラルネットワーク(CNN)が普及している。 0.80
can learn powerful hierarchical features from complex inputs. 複雑な入力から強力な階層的特徴を学べます 0.75
They are among the most well-known and 彼らは最も有名です。 0.60
successful deep neural networks that can offer the best performance as feature extractors in information 情報の特徴抽出器として最高のパフォーマンスを提供するディープニューラルネットワークの成功 0.78
extraction and input processing. 抽出および入力処理。 0.66
Convolutional layers directly receive time and place features from the input 畳み込み層は入力から時間と場所を直接受信する 0.72
and eliminate the need for feature engineering. 機能エンジニアリングの必要性を排除します。 0.69
From among different deep neural network structures, recurrent neural networks (RNNs) are widely used for 異なるディープニューラルネットワーク構造から、recurrent neural network(rnn)が広く使われている。 0.83
learning temporal dynamics in time series data. 時系列データにおける時間力学の学習 0.76
Long short-term memories (LSTMs) are a specific 長期記憶(LSTM)は特定の記憶である 0.83
component of RNNs that can learn the long-term relationships among features. 機能間の長期的な関係を学習できるRNNのコンポーネント。 0.84
They consider the input information as intervals and model their dependencies [7]. 彼らは入力を考える 情報は間隔として、依存関係をモデル化します [7]。 0.66
Since they access the entire history of time series values using the recurrent capability, LSTMs are regarded リカレント能力を用いて時系列値の全履歴にアクセスするため、LSTMは考慮される。 0.81
as the most advanced time series prediction methods. 最も先進的な時系列予測方法として。 0.70
These methods receive information from the history of これらの方法は歴史から情報を受け取る 0.82
movement paths in previous frames and produce a set of target coordinates for the next frames [8]. 前のフレームの移動パスと次のフレームのためのターゲット座標のセットを生成します[8]。 0.86
Therefore, different methods using LSTM have been proposed for solving path-related problems. そのため 経路関連問題の解法としてLSTMを用いた様々な手法が提案されている。 0.67
The input of a prediction model and its expected output are a sequence of temporally related data to one another. a の入力 予測モデルとその予測出力は、相互に時間的関連のあるデータの列である。 0.70
Therefore, the proposed model must create temporal relations in input and output data between them [9]. そのため 提案モデルは,入力データと出力データの間に時間関係を持たなければならない [9]。 0.79
In this study, an encoder-decoder architecture and an extra module are used for modeling the spatial 本研究では,エンコーダデコーダアーキテクチャと余剰モジュールを用いて空間をモデル化する。 0.85
interactions among the surrounding vehicles. 周辺車両との相互作用。 0.77
This module is a new type of the social pooling approach このモジュールは新しいタイプのソーシャル・プール・アプローチである 0.87
introduced by Alahi et al. Alahiらによって紹介される。 0.61
[10] for modeling the interaction between pedestrians near one another, developed [10]近辺の歩行者同士のインタラクションをモデル化する手法の開発 0.76
by Deo and Trivedi [11] learning the mutual dependence of vehicles. によって Deo と Trivedi [11] 車両の相互依存を学びます。 0.86
In the encoder part, convolutional layers エンコーダ部における畳み込み層 0.69
on each part of the input image have been used to automatically extract the traffic scene's local features and 入力画像の各部分に、トラフィックシーンのローカル機能を自動的に抽出するために使用されます。 0.78
record the correlations between time steps from the input images. 入力画像からの時間ステップ間の相関を記録する。 0.86
The extracted features create a social tensor 抽出された特徴は社会的テンソルを生成する 0.58
fed to a convolutional neural network to learn mutual local dependence. 畳み込みニューラルネットワークで 相互の局所依存を学習しました 0.72
Also, an LSTM decoder performs また、LSTMデコーダが実行されます。 0.62
the prediction for multiple future time horizons. 将来の複数の時間軸の予測。 0.71
The goal of enc-dec is to model the conditional probability enc-decの目標は条件付き確率のモデル化である 0.75
of the output sequence on the condition of having the input sequence. 入力シーケンスを有する状態の出力シーケンスについて。 0.60
The proposed method attempts to simplify the network architecture and directly use the road structure by 提案手法は,ネットワークアーキテクチャを単純化し,道路構造を直接利用する。 0.84
using the CNN capability in feature extraction. 機能抽出にCNN機能を使用します。 0.69
This system can generate path sequences from the camera's このシステムはカメラから経路列を生成することができる 0.82
raw input without needing complex sensors such as LiDAR. LiDARのような複雑なセンサーを必要としない未加工入力。 0.60
As the proposed architecture does not have the 提案されたアーキテクチャにはそれがないため 0.72
complexity of the previously introduced methods, it can compete with the existing modern methods by 先程導入されたメソッドの複雑さは、既存の現代的なメソッドと競合し、 0.66
providing shorter deduction time. 短い推論時間を提供する。 0.53
2. Related Research In recent years, vehicle path prediction has become a hot research topic and has been regarded as a critical 2. 関連研究 近年では、車両経路予測がホットな研究トピックとなり、重要視されている。 0.80
element in many studies, including those in the field of robotics and automated vehicles. ロボット工学および自動車の分野でそれらを含む多くの研究の要素。 0.78
Many studies have attempted to predict the behaviors and paths of pedestrians and vehicles on roads. 多くの研究が 歩行者や道路上の車両の挙動や経路を予測しようと試みた。 0.78
In recent years, various approaches have been proposed for this purpose, each of which has its features. 近年 様々なものが この目的のために、それぞれの特徴を持つアプローチが提案されている。 0.70
Lefevre et al. Lefevre et al. 0.85
[12] categorized vehicle behavior prediction models into physics-based, maneuver-based, and [12]車両の挙動予測モデルを物理系、操舵系、及び分類する 0.80
interaction-aware models. インタラクションアウェアモデル。 0.58
Physics-based models have the lowest degree of complexity and are limited to 物理学に基づくモデルは、最も複雑さが低く、制限される 0.76
short-term and unreliable predictions. 短期的で信頼できない予測。 0.56
Also, they completely ignore drivers' tendencies, which reduces their また、ドライバーの傾向を完全に無視し、その傾向を低下させる。 0.55
reliability. Maneuver-based models resolve this problem. 信頼性。 Maneuverベースのモデルがこの問題を解決します。 0.62
In these models, each driver's movements are taken as a これらのモデルでは 各ドライバーの動きは 0.70
maneuver; this is done independently from other traffic components. これは他の交通部品とは独立して行われます。 0.66
Generally, a maneuver-based 一般的には、操作に基づく 0.45
prediction is more reliable in the long term. 予測は長期的にはより信頼できるです。 0.83
However, if the feature space dimensions are increased, the しかし、特徴空間次元が増加すると、 0.60
categorization problem becomes markedly more difficult. 分類の問題は 明らかに難しくなります 0.75
Interaction-aware models are the complete models proposed so far because they can provide longer-term 相互作用認識モデルは、これまで提案された完全なモデルです。 0.62
predictions than physics-based models and are more reliable than maneuver-based models since they 物理モデルよりも予測可能で、操作モデルよりも信頼性が高い 0.80
consider the dependency between vehicles. 車両間の依存性を考える。 0.74
These models view vehicles as maneuvering objects that interact これらのモデルは、車両を相互作用する操作対象と見なす 0.64
with one another. In other words, it is assumed that the movement of one vehicle is affected by the other お互いに 言い換えれば、一方の車両の動きは他方の車両の影響を受けていると仮定される。 0.57
vehicles in the same environment. This event leads to a better understanding of the current status and better 同じ環境での車両。 この出来事は現在の状況をよりよく理解し、より良くなります 0.73
evaluation of the future. Although interaction awareness features are necessary for maneuver prediction, few 未来の評価。 インタラクション認識機能は操作予測には必要だが,少ない 0.63
approaches have existed about considering these features before 2014. 2014年以前、これらの特徴を考慮するアプローチは存在していました。 0.49
The number of studies using these これらを用いた研究の件数 0.82
features, explicitly or implicitly, has increased in recent years. 特徴は、明示的または暗黙的に、近年増加しています。 0.61
Multiple advanced approaches, mostly based on deep learning, have been proposed since 2014 and can be 主にディープラーニングに基づく複数の先進的アプローチが2014年から提案されている。 0.70
classified based on the input type [13]. 入力型[13]に基づいて分類される。 0.80
First, we will separate the vehicles in the scene as follows: 1) Target vehicle (TV): The vehicle, the path of まず、シーン内の車両を以下のように分離します:1)ターゲット車両(TV):車両、経路。 0.66
which is predicted;2) Ego vehicle (EV): The vehicle, on which the movement information recording and 予測されているもの 2)エゴ車(EV) 移動情報を記録・記録する車両 0.62
measuring sensor is mounted;3) Surrounding vehicles (SVs): Vehicles located in the neighborhood of the 計測センサを装着する;3)周辺車両(svs) : 周辺に位置する車両 0.70
TV that affect the act of prediction. 予測の行為に影響を与えるテレビ。 0.82
Sensors, radars, or cameras usually record the data used for the path prediction problem. センサー、レーダー、カメラは通常、経路予測問題に使用されるデータを記録する。 0.81
In one classification, the existing studies can be divided into the following classes based on the type of input data: The track history 1つの分類で 既存の研究は、入力データの種類に基づいて以下のクラスに分類できる: トラック履歴 0.78
of the TV, the track history of the TV and its neighbors, aerial view, and bird's-eye view. テレビでは、テレビとその隣人のトラック履歴、空中視、鳥の目視が記録されている。 0.66
The latter two classes can be regarded as sub-classes of interaction-aware approaches. 後者2名 クラスは相互作用認識アプローチのサブクラスと見なすことができる。 0.67
1) Track history of TV: The conventional approach in these models for TV behavior prediction is to use its 1)テレビのトラック履歴:テレビ行動予測における従来のアプローチは、その利用である 0.75
current status (e.g., position, speed, acceleration, direction) or the path followed over time. 現在の状態(例えば、位置、速度、加速、方向)または経路は時間とともに続く。 0.81
In [14, 15, 16], 【14, 15, 16】 0.56
position tracking, speed, and direction of the TV in previous seconds have been used for predicting its テレビの過去数秒における位置追跡,速度,方向の予測に使用されてきた。 0.73
behavior. All these studies examine the behavior of the TV without any neighbor in the environment. 行動だ これらの研究はすべて、環境に隣接しないテレビの振る舞いを調べている。 0.70
Some deep learning-based methods use this type of input for predicting vehicle behavior in a driving setting in the 一部 深層学習に基づく手法では、運転時の車両挙動予測にこの入力を用いる。 0.63
presence of other vehicles. Xin et al. 他の車の存在。 Xin et al。 0.77
[17] showed that, due to limitations of the data recording sensor and the problem of occlusion, the [17]は、データ記録センサの限界と閉塞の問題により、 0.54
information on some SVs is not available, even though some neighboring vehicles are always within the いくつかのSVに関する情報は入手できないが、近隣の車両は常に車内にある。 0.64
view of the EV's sensor. EVのセンサーのビュー。 0.63
Since vehicles' interaction affects the prediction, some SVs' invisibility can 車両の相互作用は予測に影響するため、SVの見えないものもあります。 0.59
negatively affect the precision of the prediction. 予測の精度に悪影響を及ぼします 0.79
Although the TV's movement history contains useful information on its short-term future movement, the use テレビの移動史には、その短期的運動に関する有用な情報が含まれているが、その使用 0.62
of the vehicle's movement history alone cannot lead to accurate results, especially for long-term prediction 車両の移動履歴だけでは正確な結果が得られず、特に長期予測のために 0.79
in busy driving settings. 2) Track history of TV and SVs: One approach for considering the interaction between vehicles is using 忙しい運転設定で。 2)テレビとsvsのトラック履歴:車両間の相互作用を考えるための1つのアプローチ 0.74
the track history of the TV and SVs as the input to the prediction model. 予測モデルへの入力としてのTVとSVのトラック履歴。 0.66
Like the TV states, SVs can be SV は TV のステートと同様です。 0.71
estimated in the object detection module in the EV. EV の目的の検出モジュールで推定される。 0.72
At any rate, some SVs may be outside the reach of the いずれにせよ、一部のSVは範囲外かもしれない 0.64
EV or hidden from view by the other vehicles on the path. EV または道の他の車によって眺めから隠されて。 0.73
Studies on the classification of vehicles in the scene into SVs and NVs differ from each other. シーン内の車両のSVとNVの分類に関する研究は、互いに異なります。 0.73
In [18, 19, in [18, 19] 0.74
20], the TV's status history and six nearby SVs have been used to predict the TV's path. 20]、テレビのステータス履歴と6つの近くのSVを使用してテレビの経路を予測しています。 0.71
The authors of [21, 22] regarded the vehicles in three lanes around the TV as its SVs, including two vehicles in front. 21] の著者. 22]は、テレビ周りの3車線の車両を、前面に2台の車両を含むSVと見なした。 0.60
They showed that taking into account more vehicles in the input data can improve behavior prediction 彼ら より多くの車両を入力データで考慮すれば 行動予測が改善できることを示しました 0.71
performance. In [23, 24, 25], instead of assuming a constant number of vehicles as SVs, an area was defined パフォーマンス。 23,24,25]では、一定数の車両をsvとして仮定する代わりに、領域が定義された
訳抜け防止モード: パフォーマンス。 代わって[23,24,25] SVとして一定数の車両を仮定すると エリアが定義されました
as the neighboring range. 隣り合う範囲として。 0.71
This means that the interactions of the vehicles in this range were used in the これは、この範囲で車両の相互作用が使用されたことを意味する。 0.74
prediction model. Most of these studies assume that all the SVs' states are always visible, not the realistic 予測モデル。 これらの研究の多くは、全てのSVの状態は常に見え、現実的ではないと仮定している。
訳抜け防止モード: 予測モデル。 これらの研究のほとんどは すべてのSV'状態は常に見えるが、現実的ではない
assumption in automated driving applications. 自動運転アプリケーションにおける仮定。 0.76
A more realistic approach should always consider the path より現実的なアプローチは、常に道を考えるべきです 0.64
data-recording sensor's disorders, such as occlusion and noise. 閉塞および騒音のようなデータ記録センサーの障害。 0.73
3) The simplified bird's-eye view: An alternative for considering the vehicles' interactions is using the 3)簡易鳥眼図:車両の相互作用を考慮に入れるための代替案は、その方法である。 0.73
simplified bird's-eye view (BEV) of the environment. 環境の簡易鳥眼ビュー(BEV)。 0.74
In this method, stable and dynamic objects and the この方法では、安定でダイナミックな物体と 0.76
other elements in the environment are usually shown with a set of polygons and lines in a BEV image. 環境の他の要素は通常、bev画像内の多角形と直線のセットで示される。 0.78
The result is an image similar to a map that maintains the objects' size and location (e.g., vehicles) and the road's あらすじ その結果は、オブジェクトのサイズと位置(例えば、車両)と道路を維持するマップに似たイメージとなる。 0.59
geometry while ignoring their texture. テクスチャを無視しながらジオメトリ。 0.71
Lee et al. [26] combined the camera and radar data to create a bi-channel BEV image. leeら。 26] カメラとレーダーデータを組み合わせてバイチャネルのbev画像を作成した。 0.56
One channel specifies whether each pixel contains vehicles, and the other channel determines the existence of lane signs. チャンネル指定。 それぞれのピクセルに車両が含まれているか 他のチャネルが車線標識の存在を決定するか 0.69
For the past n frames, these images are created and combined to generate a 2n-channel image as the input to the その為 過去のnフレームでは、これらの画像を合成して、2nチャネルイメージを入力として生成する。 0.58
prediction model. Instead of using a sequence of binary images, a single BEV image has been used in [27, 予測モデル。 バイナリイメージのシーケンスを使用する代わりに、単一のBEVイメージが[27]で使用されています。 0.74
28] to demonstrate objects' existence over time. 28] 物体の存在を時間とともに示すこと。 0.75
In this image, each element of the scene (e.g., road, sidewalk) この画像では、シーンの各要素(例えば、道路、歩道)。 0.74
loses its real texture and, instead, has a specific color based on its meaning. 実際のテクスチャをなくし、その代わりにその意味に基づいて特定の色を持つ。 0.71
Vehicles are shown with colored 車両は色で示されています 0.63
boxes, and their movement history is indicated with the same color but darker. 箱、および動きの歴史は同じ色とより暗く示されます。 0.65
To enrich the temporal information in the BEV image, Deo and Trivedi [11] used a social tensor, which was BEV画像の時系列情報を豊かにするために、DeoとTrivedi [11]はソーシャルテンソルを使用しました。 0.66
first introduced in [10] (known as the social pooling layer). 10] (social pooling layerとして知られる) で初めて導入された。 0.71
A social tensor is a grid around the TV, and the ソーシャルテンソルはテレビの周りのグリッドであり、そして 0.60
cells in each grid of this network are filled with the processed temporal data (LSTM hidden state) of the このネットワークの各グリッドのセルは、処理された時間データ(LSTM隠された状態)で満たされる 0.90
vehicle. Therefore, social tensor includes the vehicle's temporal dynamics and mutual spatial dependency. 車だ したがって、社会的テンソルは車両の時間力学と相互空間依存性を含む。 0.68
The cited references did not consider the defects of the sensor in depicting the inputs. 引用された参照は、入力を描写するセンサーの欠陥を考慮しなかった。 0.73
A dynamic occupancy grid map (DOGMa) has been employed to resolve this issue [29, 30, 31]. ダイナミックな占有 グリッドマップ(DOGMa)を使用してこの問題を解決しています [29, 30, 31]。 0.76
DOGMa is created by combining DOGMaは結合によって生成される 0.60
the data of different sensors and presents a BEV image of the environment. 異なったセンサーのデータおよび提示環境のBEVのイメージ。 0.68
The channels in this image この画像のチャンネルは 0.72
include the probability of occupation and an estimate of speed for each pixel. 職業の確率と各ピクセルの速度の推定が含まれます。 0.74
The speed information helps スピード情報は役立ちます 0.86
differentiate the stable and dynamic objects in the environment. 環境中の安定な物体と 動的物体を区別します 0.78
Nevertheless, it does not provide complete information on the history of dynamic objects. それでも、動的オブジェクトの歴史に関する完全な情報を提供していない。 0.79
The first advantage of a simple BEV is that it is flexible in terms of the type of representation's complexity. 単純なBEVの第一の利点は、表現の複雑さのタイプにおいて柔軟性があることである。 0.78
Therefore, it can adapt itself to applications with different computational limitations. したがって、異なる計算制限のあるアプリケーションに適応することができる。 0.80
Also, a combination of また、組み合わさったもの 0.64
different data from various sensors may be converted into a single BEV image. 様々なセンサーから異なるデータを単一のBEV画像に変換することができる。 0.81
In addition to the inherent challenges of vehicle behavior prediction, executing a behavior prediction module 車両行動予測の固有の課題に加えて、行動予測モジュールを実行します。 0.80
in automated vehicles has several practical limitations. 自動走行車には いくつか限界があります 0.55
For instance, there are limited computational 例えば 計算能力は限られていますが 0.68
resources for on-board execution in automated vehicles. 自動運転車のオンボード実行のためのリソース。 0.57
Moreover, these vehicles cannot completely view さらに これらの車両は 完全には見えません 0.68
the environment due to limitations in their on-board sensors. 搭載センサーの限界による環境。 0.54
The majority of studies have assumed they can access an extensive top-to-down view without obstacles to 研究の大部分は、障害のない広範なトップツーダウンビューにアクセスできると仮定しています。 0.67
the driving environment accessible by infrastructural sensors. インフラセンサーでアクセス可能な 運転環境です 0.70
These data can be accessed if there is a これらのデータは、もしある場合、アクセスできます 0.74
communication channel with sufficient capacity between the infrastructures and the automated vehicle [13]. インフラと自動運転車の間に十分な容量を持つ通信チャネル [13]。 0.74
Using the BEV images obtained from aerial cameras is the right choice for preventing path data recording 航空カメラから取得したBEV画像は、経路データ記録の防止に最適である 0.78
sensors' occlusion, and these images have been employed in many successful path prediction methods. センサのオクルージョンやこれらの画像は、多くの経路予測手法に採用されている。 0.68
After collecting these images, their textual data are usually extracted. その後 これらの画像を収集し、テキストデータは通常抽出されます。 0.63
An efficient model must be able to perform 効率的なモデルは実行できなければならない 0.82
prediction in any traffic condition and in a short time. どんな交通状況でも 短時間で予測できる 0.50
However, the manual extraction of features for this しかし、これのための機能の手動抽出。 0.69
purpose is difficult and time-consuming. 目的は困難で時間を要する。 0.65
Moreover, any error occurring in the first stage of feature annotation さらに、機能アノテーションの最初の段階でエラーが発生します。 0.73
can lead to errors in the next stages and disrupt the entire performance. 次の段階でエラーを発生させ パフォーマンスを損なう可能性があるのです 0.66
In this study, instead of manually この研究では 手作業ではなく 0.71
defining features that express the traffic scene's content, we propose an image of the scene is given to the トラフィックシーンの内容を表現した特徴を定義し、そのシーンをイメージした映像を提案します。 0.74
network at any time step t. We show that deep learning and CNNs can be an excellent alternative to manual 深層学習とCNNは、マニュアルに代わる優れた代替手段であることが示されています。 0.60
feature extraction. We will delineate the proposed algorithm below. 特徴抽出。 提案したアルゴリズムを以下に列挙する。 0.70
3.1. Problem Statement 3. 3.1. 問題声明 3. 0.76
Method To facilitate path programming and prevent accidents for realizing a fully automated driving, we require a 方法 パスプログラミングを楽にし、完全に自動化された運転を実現するために事故を防止するには、aが必要だ。
訳抜け防止モード: 方法 パスプログラミングを容易にし、完全自動運転を実現するための事故を未然に防ぐ。 必要なのは
simple yet powerful prediction framework to analyze the complex temporal dynamism of the participants in 参加者の複雑な時間的ダイナミズムを分析するためのシンプルで強力な予測フレームワーク 0.83
traffic in real-time. リアルタイムのトラフィック。 0.72
Previous studies have assumed that the data received on each scene are first processed, and then, their local これまでの研究では、各シーンで受信したデータが最初に処理され、そのローカルとなると仮定しています。 0.60
and temporal information is extracted. 時間情報も抽出されます 0.70
This information is used as the input to the prediction model. この情報は予測モデルへの入力として使用される。 0.84
In this process, some information may be lost, and some extra information may be extracted. この中に 処理は、ある情報は失われ、ある余分情報は抽出されるかもしれません。 0.65
An alternative method is to predict the future space for driving at a level close to the sensor's information, 別の方法は、センサーの情報に近いレベルで運転する将来の空間を予測することである。 0.82
which needs lower levels for compressing the data [32]. データを圧縮するのに 低いレベルが必要です [32] 0.87
Thus, it is better to directly select the data obtained したがって、得られたデータを直接選択する方がよい。 0.78
from the sensor or the camera as the input to the model. モデルへの入力としてセンサーかカメラから。 0.63
We assume that a camera records the driving scene 私たちは、カメラが運転シーンを記録すると仮定する 0.68
and sends the images to the prediction model to expect future positions based on these images for specified 予測モデルに画像を送り、これらの画像に基づいて将来の位置を予測します 0.84
time intervals. This assumption has numerous merits: First, the training data are obtained by using a view of 時間間隔だ この仮定には多くのメリットがある: まず、トレーニングデータは、ある視点を用いて得られる。 0.63
the driving scene easily and while avoiding the cumbersome process of data labeling; second, this approach データラベリングの面倒なプロセスを避けながら、運転シーンを簡単かつ容易に;第二に、このアプローチ
訳抜け防止モード: 運転シーンは簡単かつ時間的に データラベリングの面倒なプロセスを避ける 第二に このアプローチは
resolves the need for features that are manually extracted. 手動で抽出される機能の必要性を解決する。 0.72
Fig. 1 depicts the system model for the proposed structure. フィギュア。 1は,提案手法のシステムモデルを示す。 0.56
A set of observed images I and a set of future 観測された画像の集合Iと未来の集合 0.72
target coordinates C are assumed. 目標座標Cを仮定する。 0.78
It is assumed that all the frames can be obtained regularly, and h images すべてのフレームを定期的に取得できると仮定し、h画像を生成する。 0.69
are always accessible. 常にアクセス可能です 0.81
The movement history of the vehicle is specified by a set of frames 𝐼 = {𝑖𝑡1, … 𝑖𝑡ℎ} in 車両の移動履歴は、フレーム I = {it1, ... ith} の集合によって指定される。 0.76
the past th frames. 過去3つのフレームです 0.60
Based on the sampling frequency of 25 Hz, the distance between every two sequential 25Hzのサンプリング周波数に基づいて、2つのシーケンシャル間の距離。 0.84
frames is 0.04 s. フレームは0.04秒 0.74
We adopt the relative coordinate system, such that the TV in the current frame would be located on (0,0). 我々は,現在のフレーム内のテレビが (0,0) 上にあるような相対座標系を採用する。 0.81
If the TV's relative coordinates per frame are shown with (𝑋𝑡, 𝑌𝑡), the model output is the estimation of the set, 場合 フレームごとの TV の相対座標は (Xt, Yt) で示され、モデル出力はセットの推定です。 0.73
𝐶 = {(𝑋𝑡, 𝑌𝑡), … , (𝑋𝑡𝑓, 𝑌𝑡𝑓)} in which tf is the number of time steps predicted by the model. C = {(Xt, Yt), ... , (Xtf, Ytf)} ここで tf はモデルによって予測される時間ステップの数である。 0.89
The x- and y- axes demonstrate the vehicles' movement and the perpendicular direction, respectively. x- と y- 軸はそれぞれ車両の動きと垂直方向を示しています。 0.83
The network receives a sequence of the vehicle's images and its SVs' path and generates a sequence of the ネットワークは、車両の画像とそのSVのパスのシーケンスを受け取り、車両のシーケンスを生成します。 0.77
vehicles' future positions. A significant problem in designing prediction models is that the model should generalize from the training 車両の将来の位置。 予測モデルの設計における重要な問題は、モデルがトレーニングから一般化すべきである。 0.75
data. Since our model's input only consists of aerial images taken of the road and does not need any extra データだ 私たちのモデルの入力は道路の航空画像のみで構成されているため、余分な必要はありません。 0.69
information, it can be used for any road. 情報は、どんな道路でも利用できる。 0.65
3.1.1. Probabilistic Motion Prediction 3.1.1. 確率的運動予測 0.65
Deep neural networks generate Gaussian distribution's parametric values to consider interacting vehicles' ディープニューラルネットワークはガウス分布のパラメトリック値を生成して相互作用する車両を考える 0.74
relevance [35]. This model estimates the probabilistic distribution of the vehicle's future positions, 関連性[35] このモデルは、車両の将来の位置の確率分布を推定する。 0.74
conditional to its movement history. その移動履歴に条件付き。 0.60
𝑃(𝐶|𝐼) = 𝑝((𝑋𝑡, 𝑌𝑡), … , (𝑋𝑡𝑓, 𝑌𝑡𝑓)|𝑖𝑡1, … 𝑖𝑡ℎ) 𝑃(𝐶|𝐼) = 𝑝((𝑋𝑡, 𝑌𝑡), … , (𝑋𝑡𝑓, 𝑌𝑡𝑓)|𝑖𝑡1, … 𝑖𝑡ℎ) 0.95
The distribution of the time positions (𝑡, … , 𝑡𝑓) can be determined by a bivariate Gaussian distribution with parameters 時間位置(t, ... , tf)の分布はパラメータを持つ二変数ガウス分布によって決定できる 0.87
(𝜇𝑡; Σt). 𝐶𝑡~𝑁(𝜇𝑡, Σt) (μt; Σt)。 Ct~N(μt, Σt) 0.79
where 𝜇𝑡 and Σt are the mean vector and covariance matrix of the Gaussian function of time t, respectively. ここで μt と Σt はそれぞれ時間 t のガウス函数の平均ベクトルと共分散行列である。 0.81
3.2. Network Architecture 3.2. ネットワークアーキテクチャ 0.73
Examining recent approaches shows that the path prediction algorithms' data have been manually labeled or 最近の手法では、パス予測アルゴリズムのデータが手動でラベル付けされているか、またはラベル付けされている。
訳抜け防止モード: 最近のアプローチの概観 経路予測アルゴリズムのデータが手動でラベル付けされたか
obtained after extensive processing. 広範囲な処理の後に得られる。 0.45
The proposed method aims to reduce the manual labeling efforts of the 提案手法は,手動ラベリング作業の削減を目的としている。 0.62
input data and uses deep learning for real-time prediction on large driving datasets to develop the most current 入力データとディープラーニングを用いた大規模運転データセットのリアルタイム予測 0.60
methods. Conv inspires our model. 方法。 Convは私たちのモデルを刺激します。 0.57
The social pooling model uses the SVs' information to generate the ソーシャル プール モデルは、SV の情報を使用して生成します。 0.66
output. This pooling structure is similar to the method accomplished by Deo and Trivedi [11]; however, 出力。 このプーリング構造は、deo と trivedi [11] によって達成された方法に似ているが、 0.72
instead of using the features extracted from the SVs, we utilized the road image at any moment for training SVから抽出した特徴を利用する代わりに,任意のタイミングで道路画像をトレーニングに利用した。 0.76
our model. Due to limitations and the need for temporal precision in a real-time system, and the need for easier 我々のモデルだ リアルタイムシステムにおける時間的精度の制限と必要性、およびより容易な必要性のために。 0.77
debugging, we used a set of simple CNNs for encoding the information received from the camera. デバッギングでは、カメラから受信した情報をエンコードするために、シンプルなCNNのセットを使用しました。 0.58
The encoder includes two convolutional layers and one pooling layer for each part of the image so that the size あらすじ エンコーダは、画像の各部分に対して2つの畳み込み層と1つのプーリング層を含む。 0.55
of the input image would be reduced, and its features would be extracted. 入力画像の数が減少し、その特徴が抽出される。 0.59
There is one ReLU layer after each ReLU層が次々に1つある 0.82
convolution layer. Each CNN processes one part of the I input sequence images with length h and summarizes 畳み込み層。 各CNNは、長さhのI入力シーケンス画像の一部分を処理し、要約する。 0.58
it in a vector. ベクターに書いてある 0.50
Then, the extracted feature vectors are placed in a 3D tensor next to each other, thus creating a そして、抽出した特徴ベクトルを隣り合う3次元テンソルに配置し、それによって生成する。 0.75
social tensor, so that the model can access the movement status of the vehicles and the spatial information of モデルが車両の移動状況と空間情報にアクセスできるようにするための社会的なテンソル 0.73
the scene. Finally, after the social tensor passes a CNN, an LSTM decoder receives the content vector シーン 最後に、社会テンソルがCNNを通過した後、LSTMデコーダがコンテンツベクトルを受け取る。 0.56
containing the information obtained about the vehicles in the neighborhood and creates distribution 近隣の車両に関する情報を含み、流通を作成します。 0.68
parameters for the TV's predicted future positions (Fig. テレビの将来の位置を予測するためのパラメータ(図。 0.76
2). Fig. 2). フィギュア。 0.64
2. The proposed model. 2. 提案されたモデル。 0.79
The input images are fed to the network in a partitioned and sequential manner. 入力画像は、分割されたシーケンシャルな方法でネットワークに供給されます。 0.74
Each part passes a CNNi. 各部はCNNiを経由する。 0.50
The social pooling module learns the dependency between the vehicles. ソーシャルプールモジュールは、車両間の依存関係を学習します。 0.72
Finally, the LSTM decoder produces the distribution predicting the future path. 最後に LSTMデコーダは将来の経路を予測する分布を生成する。 0.77
3.2.1. Training the feature extractor 3.2.1. 特徴抽出器のトレーニング 0.69
Since the network input is path data and the path data are, in fact, a sequence, the network will have no ネットワーク入力はパスデータであり、パスデータは実際にはシーケンスであるため、ネットワークには何もありません。 0.77
accurate understanding of them by receiving images individually. イメージを個別に受け取り 正確に理解することです 0.78
Therefore, a sequence of images that したがって、画像のシーケンス。 0.65
expresses the vehicles' movement history is regarded as the input, the spatial features of which should first 車両の移動履歴を入力として表現し、その空間的特徴を最初に示します。 0.67
be extracted. Today, the most popular feature detection tool is supervised learning, in which features start with random 抽出される。 今日、最も人気のある機能検出ツールは教師あり学習で、その特徴はランダムに始まる。 0.73
values and are gradually filtered using the machine learning algorithm. 値であり、機械学習アルゴリズムを使って徐々にフィルタリングされる。 0.72
Such an approach requires appropriate このようなアプローチには 0.68
training data and the precise selection of the parameters, mostly through trial and error. トレーニングデータとパラメータの正確な選択は、主に試行錯誤によって行われる。 0.79
CNNs have revolutionized pattern recognition [33]. CNNはパターン認識に革命をもたらした[33]。 0.76
Their main advantage is that the features are 彼らの主な利点は、機能です。 0.77
automatically learned from the training samples. トレーニングサンプルから 自動的に学習。 0.80
The CNN approach is specifically powerful in image CNNのアプローチは画像に特に強力である 0.86
detection because the architecture of CNNs explicitly assumes that their inputs are images [34]. CNNのアーキテクチャは、入力が画像であると明示的に仮定しているため検出[34]。 0.63
The proposed model receives an aerial view of the road with the TV in the center and a fixed region around 提案モデルでは,中央にテレビを配置し,周囲に固定領域を配置した道路の空中映像を受信する。
訳抜け防止モード: 提案モデルは,テレビを中央に設置した道路の空中映像を受信する 周囲に一定の領域があり
it as the input. This region is regarded as the TV's neighborhood, and the effect of the vehicle's movement in 入力としてです。 この地域はテレビの近所と見なされており、車両の動きの影響も受けている。 0.71
this region on path prediction is examined. 経路予測のこの領域について検討する。 0.59
This neighborhood covers 180 feet in the longitudinal direction この地区は縦方向180フィートを覆っている 0.76
and the side lanes in the latitudinal direction. そして格子方向の側面の車線。 0.45
In our method, the network should automatically extract the required information from input images, and 提案手法では,ネットワークは入力画像から必要な情報を自動的に抽出する。 0.84
spatial and temporal information was not explicitly given to the network. 空間的・時間的情報は ネットワークに明示的に提供されなかった 0.72
Therefore, to better understand the したがって、よりよく理解する。 0.75
network, we divided the network into smaller parts, then each part will be processed separately. ネットワークでは,ネットワークを小さな部分に分割し,各部分を別々に処理する。 0.83
Contrary to previous studies that have assumed only the SVs' features, we obtain the features of all the parts SVsの特徴のみを仮定した過去の研究とは対照的に、全ての部品の特徴が得られている。 0.80
of the image, and the network finds the position of the vehicles and their movement pattern by receiving a 画像とネットワークは、車両の位置とその動きパターンを受信することによって見つけます。 0.75
sequence of input images. 入力画像のシーケンス。 0.69
To access each part of the image, a grid area with the size M𝖷N is assumed on the image. 画像の各部分にアクセスするには、画像上にMXNの大きさの格子領域を仮定する。 0.70
Here, N = 3 and M = 13 are assumed. ここで、N = 3 と M = 13 が想定される。 0.84
For the jth part of the grid image, 𝑆𝑗 グリッド画像の jth 部分については、Sj です。 0.76
(𝑖) , that is a sequence of the last h (𝑖) これは最後のhの配列です 0.70
frames, 𝑆𝑗𝑡 frames, Sjt 0.85
(𝑖), … , 𝑆𝑗𝑡ℎ (𝑖), … , 𝑆𝑗𝑡ℎ 0.85
(𝑖) , is sent to the CNN encoder as the input, such that i ∈ 𝐼 and j ∈ (1, N ∗ M). (𝑖) は、入力としてCNNエンコーダに送信され、i ∈ Iとj ∈ (1, N, M) となる。 0.80
As illustrated in figure 2, each part of the image passes a CNN so that its dimensions would be reduced, and 図2に示すように、画像の各部分がCNNを通過して、その寸法を小さくし、 0.67
its features would be extracted. その特徴は抽出される。 0.71
It is noteworthy that the same parameters have been used for the convolution 同じパラメータが畳み込みに使われてきたことは注目すべきです 0.81
layer of all parts. Each CNN includes two convolutional layers. すべての部品の層。 各CNNは2つの畳み込み層を含む。 0.71
Convolution enables the model to learn the 畳み込みによってモデルは学習できる 0.73
spatial dependencies. We used a 5 x 5 kernel with stride = 2 in each convolutional layer for recording the 空間依存性です 各畳み込み層に stride = 2 の 5 x 5 カーネルを使用して記録しました。 0.77
dependency of image components. イメージコンポーネントの依存性。 0.84
There is a ReLU activation function after each of these layers. これらの各レイヤの後に、ReLUアクティベーション機能があります。 0.66
The final 最終回 0.65
layer is a 2 x 2 max-pooling layer with stride = 2, which reduces the obtained feature map dimensions while Layer は stride = 2 の 2 x 2 最大プール層で、得られる特徴マップの寸法を小さくします。 0.89
maintaining the spatial features. 空間的特徴の維持です 0.80
After extracting all parts of image features, this obtained information was 画像の特徴をすべて抽出した後 得られた情報は 0.84
transferred to a social tensor to find the parts' relationship. 部品の関係を見つけるために社会的なテンソルに移された。 0.62
The obtained features are in the form of a 2 x 4 x 得られた特徴は 2 x 4 x の形で得られる 0.85
8 tensor; for converting them into an input appropriate for the social tensor, they are flattened and converted 8テンソル;それらを社会テンソルに適した入力に変換するために、フラット化され、変換される 0.65
into a 1D tensor with 64 elements. 64要素の1次元テンソルにします 0.63
The paths are separated into 8-sec parts, such that 3 sec would be regarded as the movement history, and the パスは8秒の部分に分割され、3秒は移動履歴とみなされます。
訳抜け防止モード: 経路は 8 分の 8 つの部分に分割されている。 3秒は運動の歴史と見なされ
network should predict the next 5 sec. ネットワークは次の5秒を 予測すべきだ 0.73
To reduce the complexity, and since sequential frames do not have 複雑性を低減し、シーケンシャルフレームがないためです。 0.70
additional information over each other, previous images were downsampled with a factor of 4 before being お互いの追加情報、以前の画像は4の要因でダウンサンプリングされました。 0.66
fed to the network. ネットワークに供給してる 0.65
5x5 Conv, Depth 16, Stride 2 5x5 Conv, Depth 16, Stride 2 0.96
5x5 Conv, Depth 2, Stride 2 5x5 Conv, Depth 2, Stride 2 0.96
2x2 MaxPool, Stride 2 2x2 MaxPool, Stride 2 0.88
Spatial and Temporal Features 空間的特徴と時間的特徴 0.57
Figure 3. CNN encoder. 図3。 CNNのエンコーダー。 0.77
The input image is segmented into a part of 13×3. 入力画像は13×3の一部に分割される。 0.81
Each part's features are extracted 各部分の特徴が抽出される 0.84
by passing a CNN consisting of two convolutional layers and one pooling layer. 2つの畳み込み層と1つのプーリング層からなるCNNを渡す。 0.75
3.2.2. Attention Module 3.2.2. 注意モジュール 0.64
Since the vehicles' behavior on the road is highly dependent on one another, it is imperative to consider the 道路上での車両の挙動は相互に強く依存しているため、考慮することが不可欠である。 0.79
interconnections between vehicles. Attention module is used for registering spatial and temporal dependency 車両間の相互接続 アテンションモジュールは空間的および時間的依存を登録するために使用される 0.71
in long distances and models the relationships between the different parts of the road in the grid. 長距離とモデルでは、グリッド内の道路の異なる部分間の関係性が考慮される。 0.72
Instead of modeling the relationships between vehicles per time step, the feature vectors extracted by the CNN encoder 代わりに cnnエンコーダから抽出された特徴ベクトルと時間ステップ毎の車両の関係のモデル化 0.75
obtained from the time sequences are used as the inputs to the social tensor. 時系列から得られたデータは、ソーシャルテンソルの入力として使用される。 0.58
If the size of the encoded vectors of the path is S, the attention module with dimensions 𝑁 × 𝑀 × 𝑆 is パスの符号化されたベクトルのサイズが S であれば、次元 N × M × S の注意モジュールは S である。 0.87
assumed. For each part of the input image, a 64-unit vector is extracted by the convolutional layers that possess the 仮定した 入力画像の各部分について、64単位のベクトルは、それを持つ畳み込み層によって抽出される。 0.65
vehicles' spatial and temporal features. 車の空間的および時間的特徴。 0.79
These vectors are placed next to one another to form a 3D tensor with これらのベクトルは互いに隣接して3次元テンソルを形成する。 0.77
dimensions 3 × 13 × 64. dimensions 3 × 13 × 64. 0.85
Their location is proportionate to the primary partitioning of the image. それらの位置は、画像の一次分割に比例します。 0.63
In this section, the model achieves an appropriate understanding of the scene because it has access to the movement この中に セクション モデルは、動きにアクセスできるので、シーンの適切な理解を達成する 0.75
status and spatial order of the scene's components. シーンのコンポーネントの状態と空間的順序。 0.70
Since the network should distinguish near and far ネットワークは近くと遠くに区別されるべきです。 0.69
neighbors from each other, convolutional layers and pooling after the social tensor are used. 隣同士、畳み込み層、社会的テンソルの後にプールが使用される。 0.60
The convolutional layers' equation can help learn the useful local features inside the social tensor, and the max- あらすじ 畳み込みレイヤーの方程式は、社会テンソルとマックスの内部で有用な局所的特徴を学ぶのに役立つ- 0.51
pooling layer is utilized for adding local transitional invariance [11]; finally, the coded social content is プール層は局所的な遷移不変性 [11] を付加するために利用され、最後に、符号化されたソーシャルコンテンツは
訳抜け防止モード: 局所遷移不変性付加にプール層を利用する [11] 最後に コーディングされたソーシャルコンテンツは
obtained. 3.2.3. 入手した 3.2.3. 0.50
LSTM Decoder Due to the complexity of traffic scenes and differences in driving styles, different vehicles' driving LSTMデコーダ 交通シーンの複雑さと運転スタイルの違いのために、異なる車両の運転。 0.77
trajectories are mostly probabilistic in traffic. トラジェクトリーは交通の確率が大半です 0.68
To show the probabilities in future trajectories, we used an 将来の軌道の確率を示すために使用しました。 0.67
LSTM-based decoder in order to generate the prediction distribution of future positions on target vehicles ターゲット車両の将来の位置の予測分布を生成するため、LSTMベースのデコーダ 0.90
in the future frame of 𝑡𝑓. tf の将来的な枠組みにおいて。 0.70
The decoder receives a content-based vector including an abstract of the デコーダは、その抽象を含むコンテンツベースベクターを受信する。 0.77
information about different components of the road and dependency between them and generates the 道路の異なる構成要素とそれら間の依存関係に関する情報を 生成し 0.84
parameters of conditional distribution PΘ(C|I) for future conditions of the target vehicle for time steps of 時間ステップ目標車両の将来の条件における条件分布pθ(c|i)のパラメータ 0.91
𝑡 = 𝑡 + 1, … , 𝑡 + 𝑡𝑓. 𝑡 = 𝑡 + 1, … , 𝑡 + 𝑡𝑓. 0.85
Where Θ indicates the Gaussian mixture model (GMM) parameters. ここで はガウス混合モデル(GMM)のパラメータを表す。 0.76
Θ = (Θt+1, Θt+2, …, Θt+tf) t+1, t+2, ..., t+tf) 0.64
Such that every LSTM can generate a Θt related to the corresponding frame in the future. すべてのLSTMは、将来、対応するフレームに関係のある t を生成することができる。 0.71
3.2.4. Training and implementation details 3.2.4. 研修・実施の詳細 0.60
We trained our model by using Adam's optimization function with a learning rate of 0.001. 学習率0.001のAdamの最適化機能を使用してモデルをトレーニングしました。 0.70
The batch size is equal to 1. バッチサイズは 1に等しい。 0.61
In the decoder part, LSTMs with the dimensions of 128 were used. デコーダ部では,次元128のLSTMを用いた。 0.65
The ReLU activator function ReLUアクチベーター機能 0.60
with α = 0.1 was used in all the layers. 全ての層で α = 0.1 が用いられた。 0.88
The model was executed in a GPU=NVIDIA GeForce GTX 1050Ti モデルはGPU=NVIDIA GeForce GTX 1050Tiで実行された 0.81
4GB and RAM=8.0GB by using the PyTorch framework. PyTorchフレームワークを使用して4GBとRAM=8.0GB。 0.61
4.1. HighD Dataset 4.1. 高次元データセット 0.63
4. Dataset and Features 4. データセットと特徴 0.85
The HighD data set [35] is recorded in 147 hours, including 44500 km of driving in six places near Cologne, HighDデータセット[35]は、ケルン近郊の6箇所で44500kmの運転を含む147時間で記録される。 0.75
Germany. The places differ in terms of the number of lanes and speed limitations. ドイツ。 これらの場所は、車線数や速度制限の点で異なる。 0.74
The recordings include light and heavy traffic and more than 110500 vehicles. 録音が含まれます。 ライトおよび重い交通および110500以上の車。 0.62
First, by using a drone, images of the road surface from the aerial view were taken, and the path of each まず、ドローンを使って、空中からの道路表面の画像とそれぞれの経路を撮影した。 0.59
vehicle (type, size, and maneuver) was extracted. 車両(タイプ、サイズ、操縦)が抽出された。 0.78
This dataset contains 60 recorded files, each containing 17 min of driving on average. このデータセットには60個の記録されたファイルがあり、それぞれ平均17分間のドライブが含まれている。 0.54
This data set's scope このデータセットの範囲は 0.88
covers part of the road with a length of 420 m, and each vehicle is visible for 13.6 sec on average. 道路の一部の長さは420mで、各車両の平均は13.6秒である。 0.66
The videos are taken with a resolution of 4k, and their pixel precision is 25 frames per second [36]. ビデオ 4k解像度で撮影され、ピクセル精度は毎秒25フレーム[36]である。 0.59
4.2. Image input representation 4.2. 画像入力表現 0.72
In most studies on path prediction and problems related to traffic, textual databases are used. 経路予測と交通問題に関するほとんどの研究では、テキストデータベースが使われている。 0.71
After imaging the road by executing the algorithms and performing computations, the images are annotated, and their 撮像後 アルゴリズムを実行し、計算を行い、画像に注釈を付けてそれらを実行する道 0.75
information is extracted to collect this database. このデータベースを収集するために 情報が抽出されます 0.65
The direct use of the road images as the input to the 道路画像の入力としての直接使用。 0.66
prediction models can eliminate the time-consuming and challenging information extraction process. 予測モデルは、時間的かつ困難な情報抽出プロセスを排除することができる。 0.67
To this end, we prepared simulated aerial images by using the information in the HighD database. そこで我々は,高次元データベースの情報を活用し,シミュレーション画像の作成を行った。 0.69
The overall process of creating the images is depicted in Fig. 全体 画像を作成する過程を図に示します。 0.59
3. Generate image using excel file information 3. excelファイル情報を用いた画像生成 0.83
Inputs: Coordinates, Dimensions, ID, and Velocity of Vehicles [(x,y), (w,h), ID, V] 入力:車両の座標,次元,ID,速度 [(x,y), (w,h), ID, V] 0.68
Output: Top View Image 出力: トップ ビュー イメージ。 0.85
Read Excel File Excel ファイルを読み取る 0.88
[(x,y), (w,h), ID, V] [(x,y), (w,h), ID, V] /= 0.10106 [(x,y), (w,h), ID, V] [(x,y), (w,h), ID, V] /= 0.10106 0.78
[(x ,yt ) , (wt [(x) うーん。 ) , (wt) 0.74
,ht ) , IDt うーん。 ) , IDt 0.68
,V t ] Target vehicle[(x,y) , (w,h) , ID , V] V t です。 ]ターゲット車両[(x,y) , (w,h) , ID , V] 0.74
t If V > 0 t t Vの場合 > 0t 0.78
F1 Target First Frame f1ターゲットファーストフレーム 0.87
F2 Target Last Frame f2ターゲット ラストフレーム 0.81
For F1 < F < F2 F1 < F < F2 0.94
back x - t ((90 * バックX -t ((90 * 0.76
0.3)/0.10106) 0.3)/0.10106) 0.59
front x t+ w t front x t+ w t 0.90
+ ((90 * 0.3)/0.10106) + ((90 * 0.3)/0.10106) 0.78
left (y - t 6 )/0.10106 左(y) -t 6 )/0.10106 0.75
right (y t+ h t 右(y) t+ h t 0.89
+ 6)/0.10106 + 6)/0.10106 0.74
ROI [back:Front , left:right] ROI [back:Front , left:right] 0.85
N number of vehicles in ROI ROI における N 個の車両 0.77
Img Plot rect [(x Img Plot rect [(x) 0.80
, y t , y t である。 0.56
) , (wt , h t ) , (wt) 、h t である。 0.71
)]t For 1< i < N ) 1 < i < n の場合 0.58
If (x , y i if (x) い い い い 0.63
i ) in ROI Img Plot rect [(x 私は ROI) Img Plot rect [(x) 0.61
, y i end い い い い 終わり 0.57
end ) , (wi 終わり ), (wi) 0.78
, h i )]i .h.i. ) [i] 0.61
Image croped ROI from img imgからのイメージトリミングROI 0.79
Save Image end end 画像保存 終わり 終わり 0.75
This procedure is iterated for all vehicles in the dataset. この手順はデータセット内のすべての車両で繰り返し実行される。 0.71
As mentioned before, the HighD dataset was saved 前述したように、HighDデータセットは保存された 0.65
in 60 separate files; in each, there were three Excel files containing information about the vehicles and one 60の別々のファイルで、それぞれ、車両に関する情報を含む3つのExcelファイルと1つのファイルがあった。 0.75
image of a road, on which the database was collected. データベースが収集された道路の画像。 0.58
To generate our dataset, we used the information in データセットを生成するのに 情報を使いました 0.79
one of these files, including speed, ID, lane number, frame, and the longitudinal and latitudinal coordinates スピード、ID、車線番号、フレーム、縦座標、縦座標を含むこれらのファイルの1つ 0.76
of the vehicles, and the corresponding aerial shot was selected as the background of our database. 車両とそれに対応する空中撮影は、データベースの背景として選択されました。 0.76
The origin of these images' coordinate system was located in the upper left-hand corner of the image, with the positive 起源 これらの画像のうち、座標系は画像の左上隅に位置し、正は正である。 0.63
direction to the right and down for x- and y-axes, respectively. x軸とy軸はそれぞれ右方と下方である。 0.57
The Excel files' information can be accessed Excel ファイルに関する情報にアクセスできます。 0.88
for two carriageways, but we selected only the vehicles that moved in the positive direction of the x-axis to 2両の車道に対して,x軸の正方向に移動した車両のみを選択した。 0.76
create our dataset. データセットを作成します 0.66
It is noteworthy that information such as the vehicle's position or size was per meter in the 車両の位置や大きさなどの情報が1メートルあたりであったことは注目に値する。
訳抜け防止モード: 注目に値するのは 車両の位置や大きさなどの情報は 身長1メートルあたりで
database, and we mapped them to the pixel size. データベースをピクセルサイズにマップしました 0.47
In the next stage, we selected a vehicle as to the TV. 次のステージでは、テレビに関する車両を選択しました。 0.74
Like human drivers that do not pay equal attention to 平等な注意を払っていない 人間のドライバーのように 0.65
all the vehicles on the road, we specified the neighborhood with the TV being the center to demonstrate the 道路上のすべての車両は、テレビがデモの中心である近所を特定しました。 0.68
higher importance of closer vehicles than farther vehicles. 遠い車より近い車の重要性が高い。 0.69
The vehicles on the left and right lanes and within 左側と右側の車線と内側の車両。 0.68
six vehicles in front and six vehicles behind the TV were regarded as the TV's neighborhood. 前方に6台、後方に6台の車両が、テレビの近所と見なされた。 0.69
We drew the vehicles in this region, such that instead of each vehicle, a rectangle proportionate to the size of the vehicle 絵を描きました 各車両の代わりに長方形が車両の大きさに比例するこの地域の車両 0.53
(in random color) was placed in its (𝑥, 𝑦) position. (ランダムな色)は、その(x, y)位置に配置された。 0.83
The (𝑥, 𝑦) coordinates per frame indicated the upper left- フレーム毎の (x, y) 座標は左上を示します。 0.77
hand corner of the vehicle. Then, this region was cropped from the image and saved. 車の手コーナー。 そして、この領域を画像から切り抜いて保存した。 0.63
This would be performed from the frames in which これはフレームから実行されます。 0.59
the TV entered the image to the frame where it existed the image. テレビは、その画像が存在したフレームに画像を入力しました。 0.74
Fig. 4 displays an example of the created フィギュア。 4は作成された例を示します 0.61
image. Figure 3. The method of creating an input image. イメージ。 図3。 入力画像を作成する方法。 0.67
a) main road image, b) the coordinates of the vehicles in a) 主要道路画像,b) 車両の座標 0.61
the road, c) it was created a top view image with the target vehicle center and a vicinity of 180 feet length 道路,c) 目標車両の中心と180フィートの長さの近辺でトップビューの画像が作成されました 0.83
and corner lanes in both sides of the TV テレビの両サイドのコーナーレーンは 0.60
The visible paths for the 420 TVs from the moment of entering the road to the moment of exiting the road, 420テレビの目に見える経路は、道路に入る瞬間から道路を出る瞬間までである。 0.66
while taking into account the neighborhood, were saved in 420 folders. 近所を考慮に入れながら 420個のフォルダーに保存されました 0.71
The images were classified into three 画像は3つに分類され 0.76
categories: Training, test, and evaluation, with 60% percent of the images belonging to the training set, 20% カテゴリー: トレーニング、テスト、評価、トレーニングセットに属する画像の60%、20%。 0.56
to the test set, and 20% to the evaluation set. テストセットに20%、評価セットに20%です。 0.59
Fig. 4, Top: Original image of the road; Bottom: Simulated image; The yellow rectangle shows the TV. フィギュア。 4 トップ:道路のオリジナル画像、ボトム:シミュレーション画像、黄色の長方形はテレビを表示する。
訳抜け防止モード: フィギュア。 4,トップ : 道路の原画像;ボトム : シミュレーション画像; 黄色の長方形はテレビを示しています。
5. Experimental Evaluation 5.1. 5. 実験的評価 5.1. 0.80
Evaluation metric In this project, the predicted paths' RMSE criterion based on the correct future paths was used for evaluating 評価指標 本プロジェクトでは,将来の正しい経路に基づく予測経路のrmse基準を用いて評価を行った。 0.77
the proposed model. RMSE is a measurement criterion mostly used for measuring the difference between 提案されたモデル。 RMSEは、主に差の測定に用いられる測定基準です。 0.74
the values predicted by a model and the actual output values. モデルによって予測される値と実際の出力値。 0.86
It is an appropriate and tangible criterion for それは適切かつ具体的基準である 0.73
examining the precision of model predictions. モデル予測の精度を調べました 0.81
RMSE is calculated as follows: RMSEは次のように計算される。 0.63
𝑅𝑀𝑆𝐸 = √ (𝑥𝑝𝑟𝑒𝑑 − 𝑥)2 + (𝑦𝑝𝑟𝑒𝑑 − 𝑦)2 𝑅𝑀𝑆𝐸 = √ (𝑥𝑝𝑟𝑒𝑑 − 𝑥)2 + (𝑦𝑝𝑟𝑒𝑑 − 𝑦)2 0.85
𝑁 Where (x,y) is the actual output coordinates, (xpred,ypred) is the coordinates predicted by the network, and 𝑁 ここで (x,y) は実際の出力座標であり、 (xpred,ypred) はネットワークによって予測される座標であり、 0.84
N is the number of regions in the image. N は画像内の領域数である。 0.74
For LSTM models that generate bivariate Gaussian distributions, the Gaussian distribution parameters such 二変量ガウス分布を生成するLSTMモデルの場合、ガウス分布パラメータのようなガウス分布パラメータ 0.65
as μX, μY, σX, σY, and ρ are used for calculating RMSE. RMSEの計算には μX, μY, σX, σY, ρ が用いられる。 0.84
𝑥𝑝𝑟𝑒𝑑 = μX and 𝑦𝑝𝑟𝑒𝑑 = μY . xpred = μXおよびypred = μY。 0.89
5.2. Models Comparison 5.2. モデルの比較 0.76
𝑅𝑀𝑆𝐸 = √ (μX − 𝑥)2 + (μY − 𝑦)2 𝑅𝑀𝑆𝐸 = √ (μX − x)2 + (μY − y)2 0.91
𝑁 A comparison is performed on the following models, all of which consider the interaction between the SVs. 𝑁 比較は以下のモデルで行われ、いずれもSV間の相互作用を考慮している。 0.83
They first receive the TV and SVs path as the input and produce the distribution predicting the future 彼らはまず、入力としてTVとSVsパスを受け取り、未来を予測する分布を生成する。
訳抜け防止モード: 彼らは最初に入力としてTVとSVのパスを受け取ります 未来を予測する分布を作り
coordinates of the TV. Social LSTM (S-LSTM) [10]: It is a social encoder-decoder model using a fully connected layer. テレビの座標。 Social LSTM (S-LSTM) [10]:完全に接続された層を使用したソーシャルエンコーダデコーダモデルです。 0.71
Convolutional Social Pooling (CS-LSTM) [11]: It is a social encoder-decoder using convolutional pooling. Convolutional Social Pooling (CS-LSTM) [11]:Convolutional Poolingを使用したソーシャルエンコーダデコーダです。 0.83
CS-LSTM (M) Convolutional Social Pooling (maneuver-based) [11]: It is a complete model of CS-LSTM CS-LSTM (M) Convolutional Social Pooling (maneuver-based) [11]: CS-LSTMの完全なモデルです。 0.92
that creates multi-state road prediction based on six maneuvers (two longitudinal and three lateral). これは6つの操作(縦横2つ、横3つ)に基づいて、多状態道路予測を生成する。 0.53
[37] Non-local Social Pooling (NLS-LSTM): It combines local and non-local operations to produce an [37]非ローカルソーシャルポーリング(NLS-LSTM):ローカル操作と非ローカル操作を組み合わせて生成する 0.79
adaptable content vector for social pooling. ソーシャルプールのための適応可能なコンテンツベクター。 0.58
5.3. Quantitative Results Table 1 presents the RMSE values for the compared models on the HighD database. 5.3. 定量結果 表1は、比較したモデルのRMSE値をHighDデータベースに示します。 0.75
Previous studies [3, 4] これまでの研究 [3, 4] 0.80
have compared their results with environment-independ ent prediction models to demonstrate the importance 結果と環境に依存しない予測モデルを比較し,その重要性を実証した。 0.53
of considering surrounding factors. 周囲の要因を考慮に入れます 0.59
Here, we show that considering the SVs is a significant factor for path ここでは、SVsを考えることがパスの重要な要素であることを示す。 0.59
prediction and emphasizes the model's input. モデルの入力を予測し 強調します 0.82
CS-LSTM and CS-LSTM(m) obtained better results than S- CS-LSTMとCS-LSTM(m)はSよりも良い結果を得た。 0.57
LSTM, showing the advantage of using convolution layers for modeling the dependency of vehicles' 車両の依存性をモデル化するための畳み込みレイヤの利点を示すLSTM 0.73
movement. Moreover, CS-LSTM(m) has a smaller error because it considers the future path's multi-state 動き。 さらに、CS-LSTM(m)は、将来の経路の多重状態を考えるため、誤差が小さい 0.74
nature [11]. Our method obtained a smaller error on seconds 4 and 5 than the other methods. 自然の[11]. 本手法は他の手法に比べて秒4と5の誤差が小さい。 0.76
Concerning the low computational complexity of the proposed method, this can indicate its success in path prediction. について 提案手法の計算の複雑さが低く、これはパス予測の成功を示すことができる。 0.65
Table 1. The RMSE values in 5 sec predicted for the compared models 表1。 比較モデルで予測された5秒のrmse値 0.75
RMSE Time horizon(s) RMSE time horizon (複数形 time horizons) 0.78
1 2 0.22 0.62 1 2 0.22 0.62 0.72
0.22 0.61 0.23 0.22 0.61 0.23 0.59
0.615 0.20 0.615 0.20 0.59
0.57 0.42 0.88 0.57 0.42 0.88 0.59
3 4 5 1.27 3 4 5 1.27 0.78
2.15 3.41 1.24 2.15 3.41 1.24 0.59
2.10 3.27 1.29 2.10 3.27 1.29 0.59
2.18 3.31 1.14 2.18 3.31 1.14 0.59
1.9 2.91 1.26 1.9 2.91 1.26 0.59
1.57 1.91 In figure 4, the value of RMSE in terms of the meter is reported for each of the time steps in the future for each model. 1.57 1.91 図4では、メーターの観点からのRMSEの値は、各モデルの将来の時間ステップごとに報告されます。 0.63
Figure 4. Comparison of quantitative results of different models 図4。 異なるモデルの定量的結果の比較 0.82
5.4. Qualitative Results 5.4. 質的な結果 0.71
We display the results of the decoder output on our test set. デコーダ出力の結果がテストセットに表示されます。 0.67
Fig. 5 illustrates the history of the movement フィギュア。 5は運動の歴史を示します 0.64
path of a vehicle and its predicted path. 車両の経路とその予測経路。 0.58
For the predicted path, a 31-unit set of tuples in the next 5 sec is 予測パスの場合、次の5秒で31単位のタプルがセットされます。 0.66
produced. Each tuple demonstrates the Gaussian bivariate distribution parameters per frame. 作られた 各タプルは1フレームあたりのガウス二変量分布パラメータを示す。 0.66
In the following figure, red dots show the predicted coordinates, while green dots indicate the actual output. 以下に示す。 図、赤いドットは予測された座標を示し、緑のドットは実際の出力を示します。 0.66
The white lines show the track history in the past 3 sec. 白い線 過去3秒のトラック履歴を表示します。 0.62
We can see that the uncertainty for longitudinal prediction is higher 縦方向予測の不確実性が高いことが分かりました 0.70
than the lateral position, which is reasonable concerning the road's geometry and the traffic flow. 道路の形状と交通の流れに関する合理的な横方向の位置よりも。 0.67
Figure 5. Predicted trajectories of TV. 図5。 テレビの予測軌道。 0.71
The yellow lines and white lines show the TV and TV movement 黄色い線と白い線はテレビとテレビの動きを示しています 0.80
history, respectively. それぞれ歴史がある。 0.72
The green and the red lines indicate ground truth and the predicted trajectories by 緑と赤の線は、地上の真実と予測された軌道を示す 0.81
model, respectively. 6. それぞれモデル。 6. 0.69
Conclusions and Future Work The proposed algorithm's goal was to predict the path of the vehicles by using deep neural networks while 結論と今後の課題 提案アルゴリズムの目標は,深層ニューラルネットワークを用いて車両の走行経路を予測することであった。 0.78
presenting a model with minimum complexity. 最小限の複雑さを持つモデルを示す。 0.67
The necessity of this study stems from the importance of 本研究の必要性は,その重要性に起因している。 0.64
maintaining safety in driver-assistance systems and automated vehicles. 運転支援システムと自動走行車における安全性の維持。 0.58
The existing algorithms use large 既存のアルゴリズムは大きい 0.70
databases that contain a large volume of information, and most of them are networks with computational 大量の情報を含むデータベースで、そのほとんどは計算能力のあるネットワークである 0.80
complexities. Therefore, we proposed a model that can make the prediction only by receiving images from 複雑だ そこで本稿では,画像の受信のみによる予測が可能なモデルを提案する。 0.71
the road's aerial image while having low computational complexity. 道路の航空画像は計算の複雑さを低く抑えています 0.72
To solve this problem, we utilized deep learning methods that used convolutional layers for extracting the この問題を解決するために,畳み込み層を用いた深層学習手法を用いた。 0.80
input images' features, employed social tensors for understanding the relationships between vehicles, and, 入力画像の特徴, 車両間の関係を理解するための社会的テンソルの利用, および 0.87
finally, generated the future path sequence via an LSTM-based decoder. 最後に、LSTMベースのデコーダを介して将来のパスシーケンスを生成する。 0.64
We experimentally showed that the CNNs could learn the overall movement pattern of the vehicles. 実験の結果,CNNは車両全体の運動パターンを学習できることがわかった。 0.74
CNNs can learn the significant road features from a simple top-to-down image. CNN 簡単なトップツーダウン画像から重要な道路機能を学ぶことができます。 0.72
One limitation of this model was in このモデルの1つの限界は 0.84
using the simulated images and the small size of the database. シミュレーションされたイメージおよびデータベースの小さいサイズを使用して。 0.81
A future study can focus on utilizing a larger 将来の研究は、より大きなものを活用することに集中できる 0.62
number of actual images for training the model. モデルのトレーニングのための実際の画像の数。 0.76
It was also shown that the data belonging to the drones presented explicit information for extracting the path また、ドローンのデータから経路を抽出するための明確な情報も提示された。 0.65
of vehicles and had to be examined, as suggested by previous studies. 以前の研究で示唆されたように、車両の検査が必要でした。 0.60
References [1] A. Lawitzky, D. Althoff, C. F. Passenberg, G. Tanzmeister, D. Wollherr, and M. Buss, “Interactive 参考文献 [1] A. Lawitzky, D. Althoff, C. F. Passenberg, G. Tanzmeister, D. Wollherr, M. Buss, “Interactive” 0.78
scene prediction for automotive applications,” in 2013 IEEE Intelligent Vehicles Symposium (IV), 2013年IEEEIntelligent Vehicles Symposium(IV)にて「自動車用途のシーン予測」を発表。 0.84
2013, pp. 1028–1033. 2013年、p。 1028–1033. 0.72
[2] Z. Li, "Prediction of Vehicles' Trajectories based on Driver Behavior Models," 2014. [2] Z. Li, "Prediction of Vehicles' Trajectories based on Driver Behavior Models" 2014年。 0.85
[3] S. Ulbrich and M. Maurer, "Towards tactical lane change behavior planning for automated vehicles," [3] S. Ulbrich and M. Maurer, "Towards tactical lane change behavior planning for automated vehicle" 0.87
in 2015 IEEE 18th International Conference on Intelligent Transportation Systems, 2015, pp. 2015年IEEE 18th International Conference on Intelligent Transportation Systems, 2015 pp。 0.76
989– 995. [4] 989– 995. [4] 0.83
S. Sivaraman and M. M. Trivedi, "Dynamic probabilistic drivability maps for lane change and merge S. Sivaraman and M. M. Trivedi, "Dynamic probabilistic drivability map for lane change and merge" 0.95
driver assistance," IEEE Trans. ドライバー・アシスタンス」とieeeトランス。 0.51
Intell. Transp. インテル。 トランスップ 0.55
Syst., vol. Syst., vol. 0.85
15, no. 5, pp. 15だ 5, pp。 0.59
2063–2073, 2014. 2063–2073, 2014. 0.84
[5] N. Deo and M. M. Trivedi, "Multi-modal trajectory prediction of surrounding vehicles with 5] N. Deo and M. M. Trivedi, "Multi-modal trajectory prediction of surrounding vehicle with 0.95
maneuver based lstms," in 2018 IEEE Intelligent Vehicles Symposium (IV), 2018, pp. machine based lstms" in 2018 ieee intelligent vehicles symposium (iv) 2018, pp. 0.62
1179–1184. 1179–1184. 0.71
[6] S. Jawed, E. Boumaiza, J. Grabocka, and L. Schmidt-Thieme, "Data-driven vehicle trajectory [6] S. Jawed, E. Boumaiza, J. Grabocka, L. Schmidt-Thieme, "データ駆動車両軌道" 0.82
forecasting," arXiv Prepr. 予報」、 arXiv Prepr。 0.66
arXiv1902.05400, 2019. arXiv1902.05400, 2019 0.80
[7] Ü. Dogan, J. Edelbrunner, and I. Iossifidis, "Autonomous driving: A comparison of machine 7] ü. dogan, j. edelbrunner, i. iossifidis, "autonomous driving: a comparison of machine" 0.73
learning techniques by means of the prediction of lane change behavior," in 2011 IEEE International 2011 IEEE International における「車線変化の予測による学習技術」 0.67
Conference on Robotics and Biomimetics, 2011, pp. ロボティクス・バイオミメティクス会議, 2011, pp. 0.59
1837–1843. 1837–1843. 0.71
[8] T. Hirakawa, T. Yamashita, T. Tamaki, and H. Fujiyoshi, "Survey on vision-based path prediction," [8] T.平川・T.山下・T.玉木・H.藤吉「視線経路予測に関するサーベイ」 0.74
in International Conference on Distributed, Ambient, and Pervasive Interactions, 2018, pp. international conference on distributed, ambient, and pervasive interaction, 2018, pp. (英語) 0.80
48–64. [9] G. Raipuria, "Vehicle Trajectory Prediction Using Road Structure," 2017. 48–64. 9] G. Raipuria, "Vehicle Trajectory Prediction Using Road Structure", 2017 0.70
[10] A. Alahi, K. Goel, V. Ramanathan, A. Robicquet, L. Fei-Fei, and S. Savarese, "Social lstm: Human A. Alahi, K. Goel, V. Ramanathan, A. Robicquet, L. Fei-Fei, S. Savarese, "Social lstm: Human" 0.94
trajectory prediction in crowded spaces," in Proceedings of the IEEE conference on computer vision 混み合った空間における軌跡予測」 : IEEEによるコンピュータビジョン会議の講演より 0.83
and pattern recognition, 2016, pp. そしてパターン認識、2016年、PP。 0.65
961–971. [11] N. Deo and M. M. Trivedi, "Convolutional social pooling for vehicle trajectory prediction," in 961–971. 11] N. Deo and M. M. Trivedi, "Convolutional Social Pooling for vehicle trajectory prediction" in 0.78
Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, IEEE Conference on Computer Vision and Pattern Recognition Workshop に参加して 0.80
2018, pp. 1468–1476. 2018年、p。 1468–1476. 0.60
[12] S. Lefèvre, D. Vasquez, and C. Laugier, “A survey on motion prediction and risk assessment for 12] S. Lefèvre, D. Vasquez, C. Laugier 「運動予測とリスクアセスメントに関する調査」 0.75
intelligent vehicles,” ROBOMECH J., vol. インテリジェントな車」、ROBOMECH J.、vol。 0.63
1, no. 1, p. 1, 2014. 1、いいえ。 2014年1月1日。 0.66
[13] S. Mozaffari, O. Y. Al-Jarrah, M. Dianati, P. Jennings, and A. Mouzakitis, "Deep learning-based [13]S. Mozaffari, O. Y. Al-Jarrah, M. Dianati, P. Jennings, A. Mouzakitis, "Deep Learning-based" 0.79
vehicle behaviour prediction for autonomous driving applications: A review," arXiv Prepr. 自動運転アプリケーションのための車両行動予測:レビュー" arXiv Prepr。 0.73
arXiv1912.11676, 2019. arXiv1912.11676, 2019 0.80
[14] D. Yus, "Long-term vehicle movement prediction using Machine Learning methods." [14] D. Yus, "Long-term vehicle movement predict using Machine Learning method" 。 0.95
2018. [15] A. Zyner, S. Worrall, and E. Nebot, "A recurrent neural network solution for predicting driver 2018. [15] a. zyner, s. worrall, e. nebot, "ドライバ予測のためのリカレントニューラルネットワークソリューション" 0.84
intention at unsignalized intersections," IEEE Robot. IEEE Robotは「無署名の交差点での意図」。 0.62
Autom. Lett., vol. 自動。 Lett., vol. 0.75
3, no. 3, pp. 3、いいえ。 3、p。 0.68
1759–1764, 1759–1764, 0.71
2018. [16] A. Zyner, S. Worrall, J. 2018. 16] A. Zyner, S. Worrall, J。 0.85
Ward, and E. Nebot, "Long short term memory for driver intent prediction," Ward, and E. Nebot, "Long short term memory for driver intent prediction" 0.84
in 2017 IEEE Intelligent Vehicles Symposium (IV), 2017, pp. 2017年IEEE Intelligent Vehicles Symposium (IV), 2017, pp。 0.70
1484–1489. 1484–1489. 0.71
[17] L. Xin, P. Wang, C.-Y. [17] L. Xin, P. Wang, C.-Y。 0.82
Chan, J. Chen, S. E. Li, and B. Cheng, "Intention-aware long horizon Chan, J. Chen, S. E. Li, and B. Cheng, "Intention-aware long horizon" 0.84
trajectory prediction of surrounding vehicles using dual lstm networks," in 2018 21st International デュアルlstmネットワークを用いた周辺車両の軌道予測」2018年第21回国際会議 0.69
Conference on Intelligent Transportation Systems (ITSC), 2018, pp. 理性的な交通機関システム(ITSC)、2018年、PP。 0.57
1441–1446. 1441–1446. 0.71
[18] D. J. Phillips, T. A. Wheeler, and M. J. Kochenderfer, "Generalizable intention prediction of human 18] d. j. phillips, t. a. wheeler, m. j. kochenderfer, "generalizable intention prediction of human"
訳抜け防止モード: D. J. Phillips, T. A. Wheeler, とM. J. Kochenderferは「人間の一般化可能な意図予測」
drivers at intersections," in 2017 IEEE Intelligent Vehicles Symposium (IV), 2017, pp. driver at intersections" in 2017 ieee intelligent vehicles symposium (iv) 2017年9月1日閲覧。 0.78
1665–1670. 1665–1670. 0.71
[19] J. Li, B. Dai, X. Li, X. Xu, and D. Liu, "A dynamic bayesian network for vehicle maneuver [19]J. Li, B. Dai, X. Li, X. Xu, D. Liu, 「車両操作のための動的ベイズネットワーク」 0.87
prediction in highway driving scenarios: Framework and verification," Electronics, vol. 高速道路のシナリオにおける予測: フレームワークと検証" Electronics, vol. 0.84
8, no. 1, p. 8、いいえ。 1, p。 0.76
40, 2019. [20] S. Dai, L. Li, and Z. Li, "Modeling vehicle interactions via modified LSTM models for trajectory 40, 2019. 20] S. Dai, L. Li, Z. Li, "軌跡に対する修正LSTMモデルによる車両相互作用のモデル化 0.87
prediction," IEEE Access, vol. 予測"ieee access, vol。 0.49
7, pp. 38287–38296, 2019. 7, pp。 38287–38296, 2019. 0.82
[21] F. Altché and A. de La Fortelle, "An LSTM network for highway trajectory prediction," in 2017 F. Altché と A. de La Fortelle は 2017 年に "An LSTM network for high trajectory prediction" を発表した。 0.78
IEEE 20th International Conference on Intelligent Transportation Systems (ITSC), 2017, pp. IEEE 20th International Conference on Intelligent Transportation Systems (ITSC) 2017, pp。 0.81
353– 359. [22] M. S. Shirazi and B. T. Morris, "Looking at intersections: a survey of intersection monitoring, 353– 359. 22] M.S.シラジとB.T.モリス「交差点を見る:交差点監視の調査、」 0.81
behavior and safety analysis of recent studies," IEEE Trans. 最近の研究の行動と安全性の分析」IEEEトランス。 0.79
Intell. Transp. インテル。 トランスップ 0.55
Syst., vol. Syst., vol. 0.85
18, no. 1, pp. 18、いいえ。 1、p。 0.69
4–24, 2016. 4–24, 2016. 0.84
[23] X. Li, X. Ying, and M. C. Chuah, "Grip: Graph-based interaction-aware trajectory prediction," in 23] X. Li, X. Ying, M. C. Chuah, "Grip: Graph-based Interaction-Aware trajectory prediction" in 0.94
2019 IEEE Intelligent Transportation Systems Conference (ITSC), 2019, pp. 2019 IEEE Intelligent Transportation Systems Conference (ITSC), 2019, pp。 0.78
3960–3966. 3960–3966. 0.71
[24] F. Diehl, T. Brunner, M. T. Le, and A. Knoll, "Graph neural networks for modelling traffic 24] F. Diehl, T. Brunner, M. T. Le, A. Knoll, "Graph neural network for modelling traffic" 0.95
participant interaction," in 2019 IEEE Intelligent Vehicles Symposium (IV), 2019, pp. 2019年ieee intelligent vehicles symposium(iv), 2019, pp。 0.47
695–701. [25] W. Ding and S. Shen, "Online vehicle trajectory prediction using policy anticipation network and 695–701. 25] W. Ding と S. Shen は「政策予測ネットワークを用いたオンライン車両軌道予測と 0.79
optimization-based context reasoning," in 2019 International Conference on Robotics and 2019年ロボティクス国際会議「最適化に基づく文脈推論」 0.74
Automation (ICRA), 2019, pp. 自動化(ICRA)、2019年、p。 0.78
9610–9616. 9610–9616. 0.71
[26] D. Lee, Y. P. Kwon, S. McMains, and J. K. Hedrick, "Convolution neural network-based lane D. Lee, Y. P. Kwon, S. McMains, J. K. Hedrick, "Convolution Neural Network-based lane" 0.88
change intention prediction of surrounding vehicles for ACC," in 2017 IEEE 20th International 2017 IEEE 20th International における ACC の周辺車両の意図変化予測 0.77
Conference on Intelligent Transportation Systems (ITSC), 2017, pp. 理性的な交通機関システム(ITSC)、2017年、PP。 0.61
1–6. [27] N. Djuric et al., "Motion prediction of traffic actors for autonomous driving using deep 1–6. [27]N.Djuricら「深度を用いた自動運転のための交通アクターの運動予測」 0.74
convolutional networks," arXiv Prepr. convolutional network" arXiv Prepr. 0.72
arXiv1808.05819, vol. arXiv1808.05819, vol. 0.74
2, 2018. [28] H. Cui et al., "Multimodal trajectory predictions for autonomous driving using deep convolutional 2, 2018. H. Cui et al., “Multimodal trajectory predictions for autonomous driving using deep convolutional” 0.79
networks," in 2019 International Conference on Robotics and Automation (ICRA), 2019, pp. 2019年国際ロボット・オートメーション会議(ICRA)、2019年、pp。 0.53
2090– 2090– 0.78
2096. [29] D. Nuss et al., "A random finite set approach for dynamic occupancy grid maps with real-time 2096. D. Nuss et al., “A random finite set approach for dynamic occupancy grid map with real-time” 0.84
application," Int. アプリケーション"、int。 0.53
J. Rob. Res., vol. J。 Rob 通称、Vol。 0.59
37, no. 8, pp. 37、いいえ。 8, pp。 0.77
841–866, 2018. 841–866, 2018. 0.84
[30] S. Hoermann, M. Bach, and K. Dietmayer, "Dynamic occupancy grid prediction for urban 30] S. Hoermann, M. Bach, and K. Dietmayer, "Dynamic Occupancy Grid prediction for Urban" 0.88
autonomous driving: A deep learning approach with fully automatic labeling," in 2018 IEEE 自動運転:完全自動ラベリングによるディープラーニングアプローチ」が2018年IEEEで発表されました。 0.59
International Conference on Robotics and Automation (ICRA), 2018, pp. ロボットと自動化に関する国際会議(ICRA)、2018年、pp。 0.78
2056–2063. 2056–2063. 0.71
[31] M. Schreiber, S. Hoermann, and K. Dietmayer, "Long-term occupancy grid prediction using 31] M. Schreiber, S. Hoermann, K. Dietmayer, "Long-term Occupancy Grid prediction using using 0.90
recurrent neural networks," in 2019 International Conference on Robotics and Automation (ICRA), ロボットと自動化に関する国際会議(ICRA)で「繰り返しニューラルネットワーク」。 0.72
2019, pp. 9299–9305. 2019年、p。 9299–9305. 0.75
[32] N. Mohajerin and M. Rohani, "Multi-step prediction of occupancy grid maps with recurrent neural 32] N. Mohajerin と M. Rohani, "繰り返しニューラルを用いた占有グリッドマップのマルチステップ予測 0.85
networks," in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, IEEE Conference on Computer Vision and Pattern Recognition で発表された「ネットワーク」。 0.79
2019, pp. 10600–10608. 2019年、p。 10600–10608. 0.75
[33] A. Krizhevsky, I. Sutskever, and G. E. Hinton, "Imagenet classification with deep convolutional [33] A. Krizhevsky, I. Sutskever, G. E. Hinton, "Imagenet classification with Deep Convolutional" 0.94
neural networks," in Advances in neural information processing systems, 2012, pp. ニューラルネットワーク"in advances in neural information processing systems, 2012, pp。 0.72
1097–1105. 1097–1105. 0.71
[34] M. Bojarski et al., "End to end learning for self-driving cars," arXiv Prepr. M. Bojarski et al., “End to End Learning for self-driving cars, arXiv Prepr.”[34] M. Bojarski et al.. 0.79
arXiv1604.07316, 2016. arXiv1604.07316, 2016 0.78
[35] R. Krajewski, J. Bock, L. Kloeker, and L. Eckstein, "The highd dataset: A drone dataset of 35] R. Krajewski, J. Bock, L. Kloeker, L. Eckstein, "The highd dataset: a drone dataset of 0.88
naturalistic vehicle trajectories on german highways for validation of highly automated driving 高自動運転の検証のためのドイツ高速道路の自然主義車両軌道 0.75
systems," in 2018 21st International Conference on Intelligent Transportation Systems (ITSC), 2018年第21回知的輸送システム国際会議「システム」に参加して 0.75
2018, pp. 2118–2125. 2018年、p。 2118–2125. 0.60
[36] “The highD Dataset.” [Online]. 36] “the highd dataset.” [オンライン] 0.76
Available: https://www.highd-da taset.com/format. 利用できる: https://www.highd-da taset.com/format。 0.42
[Accessed: 26- Jun-2020]. [アクセス:26- Jun-2020] 0.82
[37] K. Messaoud, I. Yahiaoui, A. Verroust-Blondet, and F. Nashashibi, "Non-local Social Pooling for [37] K. Messaoud, I. Yahiaoui, A. Verroust-Blondet, F. Nashashibi, "Non-local Social Pooling for " 0.84
Vehicle Trajectory Prediction," in 2019 IEEE Intelligent Vehicles Symposium (IV), 2019, pp. 車両軌道予測」、2019年IEEEインテリジェントビークルシンポジウム(IV)、2019年、pp。 0.65
975– 975– 0.78
980. 980. 0.85

翻訳にはFugu-Machine Translatorを利用しています。