論文の概要: Attention-based Neural Network for Driving Environment Complexity
Perception
- arxiv url: http://arxiv.org/abs/2106.11277v1
- Date: Mon, 21 Jun 2021 17:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:39:55.716866
- Title: Attention-based Neural Network for Driving Environment Complexity
Perception
- Title(参考訳): 注意に基づく環境複雑度知覚のためのニューラルネットワーク
- Authors: Ce Zhang, Azim Eskandarian, Xuelai Du
- Abstract要約: 本稿では,周囲の運転環境の複雑さを予測するための,注目に基づく新しいニューラルネットワークモデルを提案する。
Yolo-v3オブジェクト検出アルゴリズム、ヒートマップ生成アルゴリズム、CNNベースの特徴抽出器、注目ベースの特徴抽出器で構成される。
提案するアテンションベースネットワークは,周囲環境の複雑さを分類する平均分類精度91.22%を達成している。
- 参考スコア(独自算出の注目度): 123.93460670568554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Environment perception is crucial for autonomous vehicle (AV) safety. Most
existing AV perception algorithms have not studied the surrounding environment
complexity and failed to include the environment complexity parameter. This
paper proposes a novel attention-based neural network model to predict the
complexity level of the surrounding driving environment. The proposed model
takes naturalistic driving videos and corresponding vehicle dynamics parameters
as input. It consists of a Yolo-v3 object detection algorithm, a heat map
generation algorithm, CNN-based feature extractors, and attention-based feature
extractors for both video and time-series vehicle dynamics data inputs to
extract features. The output from the proposed algorithm is a surrounding
environment complexity parameter. The Berkeley DeepDrive dataset (BDD Dataset)
and subjectively labeled surrounding environment complexity levels are used for
model training and validation to evaluate the algorithm. The proposed
attention-based network achieves 91.22% average classification accuracy to
classify the surrounding environment complexity. It proves that the environment
complexity level can be accurately predicted and applied for future AVs'
environment perception studies.
- Abstract(参考訳): 環境認識は自動運転車(AV)の安全性に不可欠である。
既存のAV認識アルゴリズムは周囲の環境の複雑さを研究せず、環境の複雑さパラメータを含まない。
本稿では,周囲の運転環境の複雑さを予測できる新しい注意型ニューラルネットワークモデルを提案する。
提案モデルでは、自然な運転映像と対応する車両動力学パラメータを入力とする。
Yolo-v3オブジェクト検出アルゴリズム、ヒートマップ生成アルゴリズム、CNNベースの特徴抽出器、および特徴抽出のためのビデオおよび時系列車両のダイナミックスデータ入力のための注目ベースの特徴抽出器で構成される。
提案アルゴリズムの出力は環境複雑性パラメータである。
berkeley deepdriveデータセット(bddデータセット)と主観的にラベル付けされた環境複雑性レベルは、アルゴリズムを評価するためのモデルトレーニングと検証に使用される。
提案する注目型ネットワークは,周囲環境の複雑さを分類する平均分類精度91.22%を達成する。
環境複雑性レベルを正確に予測し、将来のAVの環境知覚研究に適用できることが証明された。
関連論文リスト
- Deep Attention Driven Reinforcement Learning (DAD-RL) for Autonomous Decision-Making in Dynamic Environment [2.3575550107698016]
AV中心の時間的注意符号化(STAE)機構を導入し,周囲の車両との動的相互作用を学習する。
マップとルートのコンテキストを理解するために,コンテキストマップの抽出にコンテキストエンコーダを用いる。
得られたモデルは、Soft Actor Critic (SAC)アルゴリズムを用いて訓練される。
論文 参考訳(メタデータ) (2024-07-12T02:34:44Z) - NeuPAN: Direct Point Robot Navigation with End-to-End Model-based Learning [67.53972459080437]
本稿では,リアルタイム,高精度,ロボットに依存しない,環境に適応しないロボットナビゲーションソリューションであるNeuPANについて述べる。
NeuPANは密結合の知覚移動フレームワークを活用し、既存のアプローチと比較して2つの重要なイノベーションを持っている。
我々は,車載ロボット,車輪脚ロボット,乗用車において,実環境と実環境の両方でNeuPANを評価した。
論文 参考訳(メタデータ) (2024-03-11T15:44:38Z) - Deep Perspective Transformation Based Vehicle Localization on Bird's Eye
View [0.49747156441456597]
従来のアプローチでは、環境をシミュレートする複数のセンサーのインストールに依存していた。
シーンのトップダウン表現を生成することで、代替ソリューションを提案する。
本稿では,RGB画像の視点ビューを,周囲の車両を分割した鳥眼ビューマップに変換するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T10:16:42Z) - Dynamics-Aware Spatiotemporal Occupancy Prediction in Urban Environments [37.00873004170998]
本稿では,ディープネットワークアーキテクチャを用いて2つの機能を統合するフレームワークを提案する。
本手法は実世界のOpenデータセット上で検証され,ベースライン法よりも高い予測精度を示す。
論文 参考訳(メタデータ) (2022-09-27T06:12:34Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Optical flow-based branch segmentation for complex orchard environments [73.11023209243326]
シミュレーションでは、シミュレーションでは、シミュレーションされたRGBデータと光フローのみを用いてニューラルネットワークシステムを訓練する。
このニューラルネットワークは、忙しい果樹園環境において、追加の現実世界のトレーニングや、標準カメラ以外の特別な設定や機器を使用することなく、前景の枝のセグメンテーションを行うことができる。
その結果,本システムは高精度であり,手動ラベル付きRGBDデータを用いたネットワークと比較すると,トレーニングセットと異なる環境において,より一貫性と堅牢性を実現していることがわかった。
論文 参考訳(メタデータ) (2022-02-26T03:38:20Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Spatio-Temporal Look-Ahead Trajectory Prediction using Memory Neural
Network [6.065344547161387]
本論文では,記憶神経ネットワークと呼ばれる新しい繰り返しニューラルネットワークを用いて,時空間的視線軌道予測の問題を解くことを試みる。
提案手法は計算量が少なく,LSTMやGRUを用いた他のディープラーニングモデルと比較すると,単純なアーキテクチャである。
論文 参考訳(メタデータ) (2021-02-24T05:02:19Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。