論文の概要: SCALE-Net: Scalable Vehicle Trajectory Prediction Network under Random
Number of Interacting Vehicles via Edge-enhanced Graph Convolutional Neural
Network
- arxiv url: http://arxiv.org/abs/2002.12609v1
- Date: Fri, 28 Feb 2020 09:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:48:47.871878
- Title: SCALE-Net: Scalable Vehicle Trajectory Prediction Network under Random
Number of Interacting Vehicles via Edge-enhanced Graph Convolutional Neural
Network
- Title(参考訳): scale-net:エッジエンハンスグラフ畳み込みニューラルネットワークによるランダムな車両数に基づくスケーラブルな車両軌道予測ネットワーク
- Authors: Hyeongseok Jeon, Junwon Choi, Dongsuk Kum
- Abstract要約: 最初の完全にスケーラブルな軌道予測ネットワークであるSCALE-Netが提案されている。
車両数に関係なく高い予測性能と一貫した計算負荷を確保することができる。
- 参考スコア(独自算出の注目度): 15.916040656243858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting the future trajectory of surrounding vehicles in a randomly
varying traffic level is one of the most challenging problems in developing an
autonomous vehicle. Since there is no pre-defined number of interacting
vehicles participate in, the prediction network has to be scalable with respect
to the vehicle number in order to guarantee the consistency in terms of both
accuracy and computational load. In this paper, the first fully scalable
trajectory prediction network, SCALE-Net, is proposed that can ensure both
higher prediction performance and consistent computational load regardless of
the number of surrounding vehicles. The SCALE-Net employs the Edge-enhance
Graph Convolutional Neural Network (EGCN) for the inter-vehicular interaction
embedding network. Since the proposed EGCN is inherently scalable with respect
to the graph node (an agent in this study), the model can be operated
independently from the total number of vehicles considered. We evaluated the
scalability of the SCALE-Net on the publically available NGSIM datasets by
comparing variations on computation time and prediction accuracy per single
driving scene with respect to the varying vehicle number. The experimental test
shows that both computation time and prediction performance of the SCALE-Net
consistently outperform those of previous models regardless of the level of
traffic complexities.
- Abstract(参考訳): ランダムに変化する交通レベルにおける周辺車両の将来の軌道予測は、自律走行車の開発において最も難しい課題の1つである。
相互作用する車両の数が予め定義されていないため、精度と計算負荷の両面での一貫性を保証するため、予測ネットワークは車両番号に関してスケーラブルでなければならない。
本稿では,周囲車両数によらず,高い予測性能と一貫した計算負荷を両立できる,初の完全スケーラブルな軌道予測ネットワークであるscale-netを提案する。
scale-netは、車間相互作用埋め込みネットワークにエッジエンハンスグラフ畳み込みニューラルネットワーク(egcn)を用いる。
提案するECCNはグラフノード(本研究のエージェント)に対して本質的にスケーラブルであるため,検討対象車両の総数から独立してモデルを操作することができる。
NGSIMデータセット上でのSCALE-Netのスケーラビリティを,各走行シーン毎の計算時間と予測精度の変動を,車両数に応じて比較することにより評価した。
実験の結果,SCALE-Netの計算時間と予測性能は,トラフィックの複雑さに関わらず,従来モデルよりも一貫して優れていたことがわかった。
関連論文リスト
- Planning with Adaptive World Models for Autonomous Driving [50.4439896514353]
運動プランナー(MP)は複雑な都市環境における安全なナビゲーションに不可欠である。
最近リリースされたMPベンチマークであるnuPlanは、クローズドループシミュレーションロジックで現実世界の駆動ログを拡張することで、この制限に対処している。
本稿では,モデル予測制御(MPC)ベースのプランナであるAdaptiveDriverを提案する。
論文 参考訳(メタデータ) (2024-06-15T18:53:45Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Exploring Attention GAN for Vehicle Motion Prediction [2.887073662645855]
身体的・社会的文脈を考慮した動き予測モデルにおける注意の影響について検討した。
本稿では,Argoverse Motion Forecasting Benchmark 1.1 を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T13:18:32Z) - Graph-Based Spatial-Temporal Convolutional Network for Vehicle
Trajectory Prediction in Autonomous Driving [2.6774008509841005]
本稿では,グラフに基づく時空間畳み込みネットワーク(GSTCN)を提案する。
時空間の特徴を符号化し、ゲートリカレントユニット(GRU)ネットワークで復号し、将来の軌道分布を生成する。
次世代シミュレーション(NGSIM)におけるI-80とUS-101の2つの実世界の高速道路軌跡データを用いたネットワーク評価
論文 参考訳(メタデータ) (2021-09-27T02:20:38Z) - Spatio-temporal Modeling for Large-scale Vehicular Networks Using Graph
Convolutional Networks [110.80088437391379]
SMARTと呼ばれるグラフベースのフレームワークが提案され、大規模な地理的領域にわたるV2I通信遅延の統計をモデル化し、追跡する。
深層Q-networksアルゴリズムと統合したグラフ畳み込みネットワークを用いたグラフ再構築型手法を開発する。
その結果,提案手法は,モデル化の精度と効率と,大規模車両ネットワークにおける遅延性能を有意に向上させることが示された。
論文 参考訳(メタデータ) (2021-03-13T06:56:29Z) - Attentional-GCNN: Adaptive Pedestrian Trajectory Prediction towards
Generic Autonomous Vehicle Use Cases [10.41902340952981]
本稿では,グラフのエッジに注目重みを割り当てることで,歩行者間の暗黙的相互作用に関する情報を集約する,GCNNに基づく新しいアプローチであるAttentional-GCNNを提案する。
提案手法は,10%平均変位誤差 (ADE) と12%最終変位誤差 (FDE) を高速な推論速度で向上することを示す。
論文 参考訳(メタデータ) (2020-11-23T03:13:26Z) - Probabilistic Crowd GAN: Multimodal Pedestrian Trajectory Prediction
using a Graph Vehicle-Pedestrian Attention Network [12.070251470948772]
本稿では,確率的集団GANが確率的マルチモーダル予測をどうやって生成できるかを示す。
ソーシャルインタラクションをモデル化するグラフ車両歩行者注意ネットワーク(GVAT)も提案する。
本研究では,軌道予測手法の既存の状況の改善を実証し,集団間相互作用の真のマルチモーダル性と不確実性を直接モデル化する方法について述べる。
論文 参考訳(メタデータ) (2020-06-23T11:25:16Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z) - ParkPredict: Motion and Intent Prediction of Vehicles in Parking Lots [65.33650222396078]
我々は、駐車場環境を開発し、人間の駐車操作のデータセットを収集する。
本稿では,多モード長短期記憶(LSTM)予測モデルと畳み込みニューラルネットワークLSTM(CNN-LSTM)を物理ベースの拡張カルマンフィルタ(EKF)ベースラインと比較する。
以上の結果から,1) 意図をよく推定できる(LSTMとCNN-LSTMモデルによる約85% のトップ1精度と100% トップ3精度),2) 運転者の意図する駐車場所の知識が駐車軌跡の予測に大きく影響すること,3) 環境の意味的表現について考察した。
論文 参考訳(メタデータ) (2020-04-21T20:46:32Z) - GISNet: Graph-Based Information Sharing Network For Vehicle Trajectory
Prediction [6.12727713172576]
Google、Uber、DiDiなどのAI指向企業は、より正確な車両軌道予測アルゴリズムを調査している。
本稿では,対象車両とその周辺車両間の情報共有を可能にする新しいグラフベース情報共有ネットワーク(GISNet)を提案する。
論文 参考訳(メタデータ) (2020-03-22T03:24:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。