論文の概要: Spatio-Temporal Scene-Graph Embedding for Autonomous Vehicle Collision
Prediction
- arxiv url: http://arxiv.org/abs/2111.06123v1
- Date: Thu, 11 Nov 2021 10:01:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 14:35:54.672528
- Title: Spatio-Temporal Scene-Graph Embedding for Autonomous Vehicle Collision
Prediction
- Title(参考訳): 自動車衝突予測のための時空間グラフ埋め込み
- Authors: Arnav V. Malawade, Shih-Yuan Yu, Brandon Hsu, Deepan Muthirayan,
Pramod P. Khargonekar, Mohammad A. Al Faruque
- Abstract要約: sg2vecは、合成データセットの最先端手法よりも8.11%精度で衝突を予測する。
また、sg2vecは、合成データセットから実世界の運転データセットへ知識を伝達する最先端技術よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.3738410998183615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In autonomous vehicles (AVs), early warning systems rely on collision
prediction to ensure occupant safety. However, state-of-the-art methods using
deep convolutional networks either fail at modeling collisions or are too
expensive/slow, making them less suitable for deployment on AV edge hardware.
To address these limitations, we propose sg2vec, a spatio-temporal scene-graph
embedding methodology that uses Graph Neural Network (GNN) and Long Short-Term
Memory (LSTM) layers to predict future collisions via visual scene perception.
We demonstrate that sg2vec predicts collisions 8.11% more accurately and 39.07%
earlier than the state-of-the-art method on synthesized datasets, and 29.47%
more accurately on a challenging real-world collision dataset. We also show
that sg2vec is better than the state-of-the-art at transferring knowledge from
synthetic datasets to real-world driving datasets. Finally, we demonstrate that
sg2vec performs inference 9.3x faster with an 88.0% smaller model, 32.4% less
power, and 92.8% less energy than the state-of-the-art method on the
industry-standard Nvidia DRIVE PX 2 platform, making it more suitable for
implementation on the edge.
- Abstract(参考訳): 自動運転車(avs)では、早期警報システムは衝突予測に依存して乗員の安全を確保する。
しかし、深層畳み込みネットワークを用いた最先端の手法は衝突のモデル化に失敗するか、高価で低すぎるため、AVエッジハードウェアへの展開には適さない。
このような制約に対処するため,グラフニューラルネット(GNN)とLong Short-Term Memory(LSTM)層を用いた時空間シーングラフ埋め込み手法であるsg2vecを提案する。
sg2vecは,実世界の衝突データセットにおいて,合成データセットの最先端法よりも,8.11%,39.07%,29.47%の精度で衝突を予測できることを実証した。
また、sg2vecは、合成データセットから実世界の運転データセットへ知識を伝達する最先端技術よりも優れていることを示す。
最後に、sg2vecは88.0%の小型モデル、32.4%の消費電力、92.8%のエネルギーを業界標準のnvidia drive px 2プラットフォームにおける最先端の方法よりも少ないエネルギーで推論を9.3倍高速化し、エッジの実装に適していることを実証する。
関連論文リスト
- Real-Time Pedestrian Detection on IoT Edge Devices: A Lightweight Deep Learning Approach [1.4732811715354455]
本研究では,AIoT(Artificial Intelligence of Things)エッジデバイス上での軽量ディープラーニングモデルの実装について検討する。
You Only Look Once (YOLO)ベースのDLモデルは、リアルタイムな歩行者検出のためにデプロイされる。
シミュレーションの結果、最適化されたYOLOモデルは、高速な推論速度147ミリ秒、フレームレート2.3フレーム/秒、精度78%でリアルタイムな歩行者検出を実現できることが示された。
論文 参考訳(メタデータ) (2024-09-24T04:48:41Z) - Pre-training on Synthetic Driving Data for Trajectory Prediction [61.520225216107306]
軌道予測におけるデータ不足の問題を緩和するパイプラインレベルのソリューションを提案する。
我々は、駆動データを生成するためにHDマップ拡張とトラジェクトリ合成を採用し、それらを事前学習することで表現を学習する。
我々は、データ拡張と事前学習戦略の有効性を実証するための広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-18T19:49:22Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - Is attention to bounding boxes all you need for pedestrian action
prediction? [1.3999481573773074]
本稿では,トランスフォーマーモデルの多変量に基づく枠組みを提案し,歩行者の過去の軌跡の動的進化を注意深く推察する。
我々のモデルに対する入力としてバウンディングボックスのみを使用することで、従来の最先端モデルよりも優れていることを示す。
我々のモデルも同様に、このデータセット上で高い精度 (91 と F1 スコア (0.91) に達した。
論文 参考訳(メタデータ) (2021-07-16T17:47:32Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - Deep Dual-resolution Networks for Real-time and Accurate Semantic
Segmentation of Road Scenes [0.23090185577016442]
道路シーンのリアルタイムセマンティックセグメンテーションのための新しいディープデュアルリゾリューションネットワーク(DDRNets)を提案する。
提案手法は,Cityscapes と CamVid 両方のデータセットにおける精度と速度の新たなトレードオフを実現する。
論文 参考訳(メタデータ) (2021-01-15T12:56:18Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - Res-GCNN: A Lightweight Residual Graph Convolutional Neural Networks for
Human Trajectory Forecasting [0.0]
ペデストリアンの対話的挙動をモデル化した残差グラフ畳み込みニューラルネットワーク(Res-GCNN)を提案する。
その結果、最終変位誤差(FDE)が0.65mに達すると、アートの状態を13.3%改善することが示された。
コードはGitHubで公開されている。
論文 参考訳(メタデータ) (2020-11-18T11:18:16Z) - Scene-Graph Augmented Data-Driven Risk Assessment of Autonomous Vehicle
Decisions [1.4086978333609153]
本研究では,シーングラフを中間表現として利用する新しいデータ駆動手法を提案する。
我々のアプローチには、マルチリレーショングラフ畳み込みネットワーク、ロングショート長期記憶ネットワーク、そして運転操作の主観的リスクをモデル化するための注意層が含まれる。
提案手法は,大型(96.4%対91.2%)および小型(91.8%対71.2%)の最先端アプローチよりも高い分類精度が得られることを示す。
また、実世界のデータセットでテストすると、合成データセットでトレーニングされたモデルの平均精度が87.8%に達することを示す。
論文 参考訳(メタデータ) (2020-08-31T07:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。