論文の概要: A system of vision sensor based deep neural networks for complex driving
scene analysis in support of crash risk assessment and prevention
- arxiv url: http://arxiv.org/abs/2106.10319v1
- Date: Fri, 18 Jun 2021 19:07:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 07:06:05.933341
- Title: A system of vision sensor based deep neural networks for complex driving
scene analysis in support of crash risk assessment and prevention
- Title(参考訳): 衝突リスク評価と防止を支援する複雑な運転シーン解析のための視覚センサを用いたディープニューラルネットワークシステム
- Authors: Muhammad Monjurul Karim, Yu Li, Ruwen Qin, Zhaozheng Yin
- Abstract要約: 本稿では,車載ダッシュカメラとディープラーニングアルゴリズムを用いたシーン解析システムを開発した。
このシステムのマルチネットには、2つのマルチタスクニューラルネットワークが含まれており、シーンごとに4つのラベルを提供するシーン分類を実行する。
2つの全く新しいデータセットが開発され、一般に公開され、提案されたディープニューラルネットワークのトレーニングに有効であることが証明された。
- 参考スコア(独自算出の注目度): 12.881094474374231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To assist human drivers and autonomous vehicles in assessing crash risks,
driving scene analysis using dash cameras on vehicles and deep learning
algorithms is of paramount importance. Although these technologies are
increasingly available, driving scene analysis for this purpose still remains a
challenge. This is mainly due to the lack of annotated large image datasets for
analyzing crash risk indicators and crash likelihood, and the lack of an
effective method to extract lots of required information from complex driving
scenes. To fill the gap, this paper develops a scene analysis system. The
Multi-Net of the system includes two multi-task neural networks that perform
scene classification to provide four labels for each scene. The DeepLab v3 and
YOLO v3 are combined by the system to detect and locate risky pedestrians and
the nearest vehicles. All identified information can provide the situational
awareness to autonomous vehicles or human drivers for identifying crash risks
from the surrounding traffic. To address the scarcity of annotated image
datasets for studying traffic crashes, two completely new datasets have been
developed by this paper and made available to the public, which were proved to
be effective in training the proposed deep neural networks. The paper further
evaluates the performance of the Multi-Net and the efficiency of the developed
system. Comprehensive scene analysis is further illustrated with representative
examples. Results demonstrate the effectiveness of the developed system and
datasets for driving scene analysis, and their supportiveness for crash risk
assessment and crash prevention.
- Abstract(参考訳): 事故リスクの評価において、人間ドライバーや自動運転車を支援するため、車載ダッシュカメラとディープラーニングアルゴリズムを用いたシーン解析が最重要となる。
これらの技術はますます普及しているが、この目的のためのシーン分析の推進は依然として課題である。
これは主に、衝突リスク指標と衝突可能性を分析するための注釈付き大規模画像データセットの欠如と、複雑な運転シーンから大量の必要な情報を抽出する効果的な方法の欠如によるものである。
このギャップを埋めるために,シーン分析システムを開発した。
システムのマルチネットは、シーン分類を実行する2つのマルチタスクニューラルネットワークを含み、各シーンに4つのラベルを提供する。
deeplab v3とyolo v3を組み合わせることで、危険な歩行者や最寄りの車両を検知・発見する。
すべての識別された情報は、周囲の交通からの衝突リスクを特定するために、自動運転車や人間ドライバーに状況認識を提供することができる。
交通事故研究のための注釈付き画像データセットの不足に対処するため,本論文では2つの全く新しいデータセットを開発し,提案したディープニューラルネットワークのトレーニングに有効であることが証明された。
本論文は,マルチネットの性能と,開発したシステムの効率をさらに評価する。
総合的なシーン分析はさらに代表的な例で示される。
その結果,運転シーン分析におけるシステムとデータセットの有効性,クラッシュリスクアセスメントとクラッシュ防止への支援性が示された。
関連論文リスト
- Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution [5.500457283114346]
本稿では,実際の道路データセットBDD100Kから発生するセンサブロックを用いた道路合成データセットを提案する。
このデータセットを用いて、自律運転のための多様なマルチタスクネットワークの劣化を評価し、分析した。
深層ニューラルネットワークを用いた自動運転車の認識システムの性能劣化傾向を深く分析した。
論文 参考訳(メタデータ) (2023-12-31T11:30:42Z) - Exploring the Potential of Multi-Modal AI for Driving Hazard Prediction [18.285227911703977]
本稿では,車載ダッシュカムが捉えた単一入力画像を用いて,差し迫った事故を予測するためのタスクとして定式化する。
この問題は、不確実な観測に基づいて将来の出来事を予測し、推論する必要がある。
この調査対象領域の研究を可能にするために、DHPRデータセットと呼ばれる新しいデータセットが作成される。
論文 参考訳(メタデータ) (2023-10-07T03:16:30Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - A Semi-Automated Corner Case Detection and Evaluation Pipeline [0.0]
知覚システムは、ディープニューラルネットワークをトレーニングするために大きなデータセットを必要とする。
これらのデータセットのどの部分がコーナーケースを記述しているかを知ることは、ネットワークのトレーニングやテストにおいて有利である。
本稿では,集合的知識記述を拡張KI Absicherungオントロジーに変換するパイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-25T12:06:43Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Vision based Pedestrian Potential Risk Analysis based on Automated
Behavior Feature Extraction for Smart and Safe City [5.759189800028578]
このような交差点に設置した道路セキュリティカメラで収集した映像を用いて,歩行者の潜在的な危険度に関する包括的分析モデルを提案する。
提案システムは、車や歩行者を自動的に検知し、フレームによって軌跡を計算し、これらの物体間の潜在的危険シーンの可能性を左右する行動特徴を抽出する。
韓国大山市の横断歩道で適用し,実現可能性と適用性を評価した。
論文 参考訳(メタデータ) (2021-05-06T11:03:10Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。