論文の概要: Robust and Fast Vehicle Detection using Augmented Confidence Map
- arxiv url: http://arxiv.org/abs/2304.14462v1
- Date: Thu, 27 Apr 2023 18:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 16:04:47.359406
- Title: Robust and Fast Vehicle Detection using Augmented Confidence Map
- Title(参考訳): Augmented Confidence Map を用いたロバスト・高速車両検出
- Authors: Hamam Mokayed and Palaiahnakote Shivakumara and Lama Alkhaled and
Rajkumar Saini and Muhammad Zeshan Afzal and Yan Chai Hum and Marcus Liwicki
- Abstract要約: 車両を含む関心領域を強調する拡張の概念を導入する。
MR-MSERの出力は高速CNNに供給され、信頼マップを生成する。
車両検出のための複雑なモデルを実装する既存のモデルとは異なり、粗いセットとファジィベースのモデルの組み合わせについて検討する。
- 参考スコア(独自算出の注目度): 10.261351772602543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vehicle detection in real-time scenarios is challenging because of the time
constraints and the presence of multiple types of vehicles with different
speeds, shapes, structures, etc. This paper presents a new method relied on
generating a confidence map-for robust and faster vehicle detection. To reduce
the adverse effect of different speeds, shapes, structures, and the presence of
several vehicles in a single image, we introduce the concept of augmentation
which highlights the region of interest containing the vehicles. The augmented
map is generated by exploring the combination of multiresolution analysis and
maximally stable extremal regions (MR-MSER). The output of MR-MSER is supplied
to fast CNN to generate a confidence map, which results in candidate regions.
Furthermore, unlike existing models that implement complicated models for
vehicle detection, we explore the combination of a rough set and fuzzy-based
models for robust vehicle detection. To show the effectiveness of the proposed
method, we conduct experiments on our dataset captured by drones and on several
vehicle detection benchmark datasets, namely, KITTI and UA-DETRAC. The results
on our dataset and the benchmark datasets show that the proposed method
outperforms the existing methods in terms of time efficiency and achieves a
good detection rate.
- Abstract(参考訳): リアルタイムシナリオにおける車両検出は、時間的制約と、速度、形状、構造などが異なる複数の種類の車両が存在するため、難しい。
本稿では,信頼性マップを高速かつ堅牢な車両検出に利用した新しい手法を提案する。
異なる速度, 形状, 構造, 複数台の車両の存在の悪影響を軽減するため, 車両を含む関心領域を強調させる拡張の概念を導入する。
拡張マップは、マルチレゾリューション解析と最大安定極値領域(mr-mser)の組み合わせを探索することによって生成される。
MR-MSERの出力は高速CNNに供給され、信頼マップを生成する。
さらに,車両検出のための複雑なモデルを実装した既存モデルとは異なり,頑健な車両検出のための粗い集合とファジィに基づくモデルの組み合わせについて検討する。
提案手法の有効性を示すため,ドローンが捉えたデータセットと,KITTIとUA-DETRACという複数の車両検出ベンチマークデータセットを用いて実験を行った。
その結果,提案手法は時間効率の点で既存手法よりも優れ,検出率も良好であることが示唆された。
関連論文リスト
- DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - A novel efficient Multi-view traffic-related object detection framework [17.50049841016045]
我々は,多視点ビデオデータを用いた効率的な物体検出を実現するために,CEVASという新しいトラフィック関連フレームワークを提案する。
その結果,本フレームワークは,最先端手法と同じ検出精度を達成しつつ,応答遅延を著しく低減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T06:42:37Z) - STC-IDS: Spatial-Temporal Correlation Feature Analyzing based Intrusion
Detection System for Intelligent Connected Vehicles [7.301018758489822]
車両内通信トラフィック(STC-IDS)の時空間相関特性を用いた自動車侵入検出の新しいモデルを提案する。
具体的には、エンコーダ部では、空間的関係と時間的関係を同時に符号化する。
符号化された情報は検出器に渡され、強制的な空間的時間的注意特徴を生成し、異常分類を可能にする。
論文 参考訳(メタデータ) (2022-04-23T04:22:58Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Multi-Stream Attention Learning for Monocular Vehicle Velocity and
Inter-Vehicle Distance Estimation [25.103483428654375]
車両速度と車間距離の推定は、ADAS(Advanced driver-assistance system)と自律走行車にとって不可欠である。
近年の研究では、低コストの単眼カメラを用いて、車周りの環境をデータ駆動方式で知覚することに焦点を当てている。
MSANetは、例えば、共同走行速度と車間距離推定のための空間的特徴と文脈的特徴の異なる特徴を抽出するために提案されている。
論文 参考訳(メタデータ) (2021-10-22T06:14:12Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Dual-Modality Vehicle Anomaly Detection via Bilateral Trajectory Tracing [42.03797195839054]
本稿では,異常車両のロバスト検出のためのモジュール化手法を提案する。
車両検出・追跡モジュールには, YOLOv5とマルチスケールトラッキングを採用し, 異常の局所化を行った。
NVIDIA 2021 AI City Challengeのトラック4テストセットで行われた実験では、0.9302 F1スコアと3.4039ルート平均二乗誤差(RMSE)が得られた。
論文 参考訳(メタデータ) (2021-06-09T12:04:25Z) - Object Detection and Tracking Algorithms for Vehicle Counting: A
Comparative Analysis [3.093890460224435]
著者は、さまざまな種類の車両を検出し、追跡するために、アートオブジェクトの検出と追跡アルゴリズムのいくつかの状態をデプロイする。
モデルの組み合わせを検証し、手動で数えた9時間以上の交通映像データと比較する。
その結果,CentralNet,Deep SORT,Deuterron2,Deep SORT,YOLOv4,Deep SORTの組み合わせは全車種で最高の総計数率を示した。
論文 参考訳(メタデータ) (2020-07-31T17:49:27Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。