論文の概要: Blind-Spot Collision Detection System for Commercial Vehicles Using
Multi Deep CNN Architecture
- arxiv url: http://arxiv.org/abs/2208.08224v2
- Date: Fri, 19 Aug 2022 09:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 17:30:39.132065
- Title: Blind-Spot Collision Detection System for Commercial Vehicles Using
Multi Deep CNN Architecture
- Title(参考訳): マルチディープcnnアーキテクチャを用いた商用車両のブラインドスポット衝突検出システム
- Authors: Muhammad Muzammel, Mohd Zuki Yusoff, Mohamad Naufal Mohamad Saad,
Faryal Sheikh and Muhammad Ahsan Awais
- Abstract要約: 高レベル特徴記述子に基づく2つの畳み込みニューラルネットワーク(CNN)は、重車両の盲点衝突を検出するために提案される。
盲点車両検出のための高次特徴抽出のための2つの事前学習ネットワークを統合するために,融合手法を提案する。
機能の融合により、より高速なR-CNNの性能が大幅に向上し、既存の最先端手法よりも優れていた。
- 参考スコア(独自算出の注目度): 0.17499351967216337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Buses and heavy vehicles have more blind spots compared to cars and other
road vehicles due to their large sizes. Therefore, accidents caused by these
heavy vehicles are more fatal and result in severe injuries to other road
users. These possible blind-spot collisions can be identified early using
vision-based object detection approaches. Yet, the existing state-of-the-art
vision-based object detection models rely heavily on a single feature
descriptor for making decisions. In this research, the design of two
convolutional neural networks (CNNs) based on high-level feature descriptors
and their integration with faster R-CNN is proposed to detect blind-spot
collisions for heavy vehicles. Moreover, a fusion approach is proposed to
integrate two pre-trained networks (i.e., Resnet 50 and Resnet 101) for
extracting high level features for blind-spot vehicle detection. The fusion of
features significantly improves the performance of faster R-CNN and
outperformed the existing state-of-the-art methods. Both approaches are
validated on a self-recorded blind-spot vehicle detection dataset for buses and
an online LISA dataset for vehicle detection. For both proposed approaches, a
false detection rate (FDR) of 3.05% and 3.49% are obtained for the self
recorded dataset, making these approaches suitable for real time applications.
- Abstract(参考訳): バスや大型車両は大型のため、車や他の道路車両に比べて盲点が多い。
そのため、重車両による事故は致命的であり、他の道路利用者に重傷を負わせている。
これらの盲点衝突は、視覚に基づく物体検出手法を用いて早期に特定できる。
しかし、既存の最先端のビジョンベースのオブジェクト検出モデルは、決定を行うための単一の機能記述子に大きく依存している。
本研究では、高レベル特徴記述子に基づく2つの畳み込みニューラルネットワーク(CNN)の設計と、より高速なR-CNNとの統合を提案し、重車両の盲点衝突を検出する。
さらに,2つの事前訓練ネットワーク(Resnet 50とResnet 101)を統合して,盲点車両検出のための高レベル特徴を抽出する融合手法を提案する。
機能の融合により、より高速なR-CNNの性能が大幅に向上し、既存の最先端手法よりも優れていた。
どちらのアプローチも、バス用の自己記録された盲点車両検出データセットと、車両検出のためのオンラインlisaデータセットで検証される。
どちらのアプローチも、自己記録データセットに対して3.05%と3.49%の偽検出率(FDR)が得られ、これらのアプローチはリアルタイムアプリケーションに適している。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Run-time Introspection of 2D Object Detection in Automated Driving
Systems Using Learning Representations [13.529124221397822]
ディープニューラルネットワーク(DNN)に基づく2次元物体検出のための新しいイントロスペクションソリューションを提案する。
KITTIとBDDのデータセットで評価された1段階および2段階のオブジェクト検出器を用いて,2次元オブジェクト検出におけるエラー検出のためのSOTAイントロスペクション機構を実装した。
性能評価の結果,提案手法はSOTA法より優れており,BDDデータセットのエラー率を9%から17%まで絶対的に削減できることがわかった。
論文 参考訳(メタデータ) (2024-03-02T10:56:14Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Cross-Domain Car Detection Model with Integrated Convolutional Block
Attention Mechanism [3.3843451892622576]
統合畳み込みブロックアテンション機構を用いたクロスドメイン車目標検出モデルを提案する。
実験の結果,我々のフレームワークを使わずに,モデルの性能が40%向上したことがわかった。
論文 参考訳(メタデータ) (2023-05-31T17:28:13Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Vehicle Detection of Multi-source Remote Sensing Data Using Active
Fine-tuning Network [26.08837467340853]
提案するMs-AFtフレームワークは,移動学習,セグメンテーション,アクティブな分類を,自動ラベリングと検出のための統合されたフレームワークに統合する。
提案したMs-AFtは、未ラベルのデータセットから車両のトレーニングセットを最初に生成するために、微調整ネットワークを使用している。
2つのオープンISPRSベンチマークデータセットで実施された大規模な実験結果は、車両検出のための提案されたMs-AFtの優位性と有効性を示している。
論文 参考訳(メタデータ) (2020-07-16T17:46:46Z) - Traffic Signs Detection and Recognition System using Deep Learning [0.0]
本稿では,交通標識をリアルタイムに検出・認識するためのアプローチについて述べる。
マルチオブジェクト検出システムの最先端技術を用いて,交通信号検出問題に取り組む。
この論文の焦点は、F-RCNN Inception v2とTiny YOLO v2が最高の結果を得たときのものである。
論文 参考訳(メタデータ) (2020-03-06T14:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。