論文の概要: Detecting Unsigned Physical Road Incidents from Driver-View Images
- arxiv url: http://arxiv.org/abs/2004.11824v1
- Date: Fri, 24 Apr 2020 16:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 04:03:09.034697
- Title: Detecting Unsigned Physical Road Incidents from Driver-View Images
- Title(参考訳): ドライバビュー画像による未署名道路事故の検出
- Authors: Alex Levering, Martin Tomko, Devis Tuia, Kourosh Khoshelham
- Abstract要約: 重要なニーズは、破壊的なインシデントを迅速かつ効果的に検出し、伝達することである。
既製のディープニューラルネットワークアーキテクチャに基づくシステムを提案する。
我々は,未署名の身体的事象に対する分類を開発し,関連する事象を整理・分類する手段を提供する。
- 参考スコア(独自算出の注目度): 3.840106920708639
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety on roads is of uttermost importance, especially in the context of
autonomous vehicles. A critical need is to detect and communicate disruptive
incidents early and effectively. In this paper we propose a system based on an
off-the-shelf deep neural network architecture that is able to detect and
recognize types of unsigned (non-placarded, such as traffic signs), physical
(visible in images) road incidents. We develop a taxonomy for unsigned physical
incidents to provide a means of organizing and grouping related incidents.
After selecting eight target types of incidents, we collect a dataset of twelve
thousand images gathered from publicly-available web sources. We subsequently
fine-tune a convolutional neural network to recognize the eight types of road
incidents. The proposed model is able to recognize incidents with a high level
of accuracy (higher than 90%). We further show that while our system
generalizes well across spatial context by training a classifier on
geostratified data in the United Kingdom (with an accuracy of over 90%), the
translation to visually less similar environments requires spatially
distributed data collection.
Note: this is a pre-print version of work accepted in IEEE Transactions on
Intelligent Vehicles (T-IV;in press). The paper is currently in production, and
the DOI link will be added soon.
- Abstract(参考訳): 道路の安全は、特に自動運転車の文脈において、非常に重要である。
重要なニーズは、早期かつ効果的に破壊的なインシデントを検出し、伝達することである。
本稿では,車載の深層ニューラルネットワークアーキテクチャに基づいて,信号機や物理的(画像で見える)道路事故のタイプを検知し,認識できるシステムを提案する。
我々は,無署名の物理的インシデントに対する分類法を開発し,関連するインシデントを整理し分類する。
8種類のインシデントを選択した後、公開可能なWebソースから12万の画像のデータセットを収集します。
次に畳み込みニューラルネットワークを微調整して8種類の道路インシデントを認識する。
提案モデルでは,高い精度(90%以上)でインシデントを認識できる。
さらに,本システムでは,イギリスにおけるジオストラト化データの分類器を訓練することにより,空間的文脈にわたってよく一般化する(90%以上の精度で)が,視覚的に類似の少ない環境への変換には空間的分散データ収集が必要である。
注意:これはIEEE Transactions on Intelligent Vehicles (T-IV; in press)で受け入れられた作業のプレプリント版である。
論文は現在生産中であり、間もなくDOIリンクが追加される予定である。
関連論文リスト
- IncidentNet: Traffic Incident Detection, Localization and Severity Estimation with Sparse Sensing [0.6787248655856052]
IncidentNetは、トラフィックインシデントの深刻度を分類、ローカライズ、推定するための新しいアプローチである。
本モデルでは,交通交差点に設置したカメラを用いて収集可能な微視的交通データについて検討する。
論文 参考訳(メタデータ) (2024-08-02T04:09:15Z) - Graph Neural Networks for Road Safety Modeling: Datasets and Evaluations
for Accident Analysis [21.02297148118655]
本稿では,米国各州の公式報告から,大規模交通事故記録のデータセットを構築した。
この新たなデータセットを用いて,道路ネットワーク上で発生した事故を予測するための既存のディープラーニング手法を評価する。
主な発見は、GraphSAGEのようなグラフニューラルネットワークが、道路上の事故数を22%未満の絶対誤差で正確に予測できることです。
論文 参考訳(メタデータ) (2023-10-31T21:43:10Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Traffic Context Aware Data Augmentation for Rare Object Detection in
Autonomous Driving [5.037913689432052]
本稿では,自律運転におけるまれな物体検出のための簡易なコピー・ペーストデータ拡張に関する体系的研究を提案する。
具体的には、リアルなレアなオブジェクトマスクを生成するために、局所適応型インスタンスレベルの画像変換を導入する。
我々は10kのトレーニング画像と4kの検証画像と対応するラベルからなるNM10kという新しいデータセットを構築した。
論文 参考訳(メタデータ) (2022-05-01T01:45:00Z) - Intelligent Railway Foreign Object Detection: A Semi-supervised
Convolutional Autoencoder Based Method [7.557470133155959]
本研究では,鉄道軌道画像のみを必要とする半教師付き畳み込みオートエンコーダに基づくフレームワークを開発した。
提案するフレームワークは,IoT(Internet-of-Things)システムのデータ分析に有用である。
論文 参考訳(メタデータ) (2021-08-05T07:32:23Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - "Who is Driving around Me?" Unique Vehicle Instance Classification using
Deep Neural Features [5.634825161148484]
本稿では,物体検出CNNの固有特徴マップを用いて,ダッシュカムフィードから車両を識別する方法について述べる。
異なるクラスを区別するために訓練されたディープニューラルネットワークは、同じクラスに属する異なるインスタンスを識別するためにうまく使用することができる。
論文 参考訳(メタデータ) (2020-02-29T13:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。