論文の概要: LDNet: End-to-End Lane Marking Detection Approach Using a Dynamic Vision
Sensor
- arxiv url: http://arxiv.org/abs/2009.08020v2
- Date: Tue, 30 Nov 2021 10:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 11:39:21.941690
- Title: LDNet: End-to-End Lane Marking Detection Approach Using a Dynamic Vision
Sensor
- Title(参考訳): ldnet:ダイナミックビジョンセンサを用いたエンドツーエンドレーンマーキング検出手法
- Authors: Farzeen Munir (Student Member, IEEE), Shoaib Azam (Student Member,
IEEE), Moongu Jeon (Senior Member, IEEE), Byung-Geun Lee (Member, IEEE), and
Witold Pedrycz (Life Fellow, IEEE)
- Abstract要約: 本稿では,イベントカメラを用いたレーンマーキング検出の新たな応用について検討する。
符号化された特徴の空間分解能は、密度の高密度な空間ピラミッドプールブロックによって保持される。
提案手法の有効性をDVSデータセットを用いて評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern vehicles are equipped with various driver-assistance systems,
including automatic lane keeping, which prevents unintended lane departures.
Traditional lane detection methods incorporate handcrafted or deep
learning-based features followed by postprocessing techniques for lane
extraction using frame-based RGB cameras. The utilization of frame-based RGB
cameras for lane detection tasks is prone to illumination variations, sun
glare, and motion blur, which limits the performance of lane detection methods.
Incorporating an event camera for lane detection tasks in the perception stack
of autonomous driving is one of the most promising solutions for mitigating
challenges encountered by frame-based RGB cameras. The main contribution of
this work is the design of the lane marking detection model, which employs the
dynamic vision sensor. This paper explores the novel application of lane
marking detection using an event camera by designing a convolutional encoder
followed by the attention-guided decoder. The spatial resolution of the encoded
features is retained by a dense atrous spatial pyramid pooling (ASPP) block.
The additive attention mechanism in the decoder improves performance for high
dimensional input encoded features that promote lane localization and relieve
postprocessing computation. The efficacy of the proposed work is evaluated
using the DVS dataset for lane extraction (DET). The experimental results show
a significant improvement of $5.54\%$ and $5.03\%$ in $F1$ scores in multiclass
and binary-class lane marking detection tasks. Additionally, the intersection
over union ($IoU$) scores of the proposed method surpass those of the
best-performing state-of-the-art method by $6.50\%$ and $9.37\%$ in multiclass
and binary-class tasks, respectively.
- Abstract(参考訳): 現代の車両には、意図しない車線離脱を防ぐ自動車線保持を含む様々な運転支援システムが搭載されている。
従来の車線検出手法は、手工芸や深層学習に基づく特徴を取り入れ、さらにフレームベースのRGBカメラを用いた車線抽出のための後処理技術も取り入れている。
フレームベースのRGBカメラを車線検出タスクに利用することは、車線検出方法の性能を制限する照明のバリエーション、太陽の輝き、動きのぼやけを引き起こす。
自律走行の知覚スタックに車線検出タスクのためのイベントカメラを組み込むことは、フレームベースのRGBカメラが直面する課題を軽減する最も有望なソリューションの1つである。
この研究の主な貢献は、動的視覚センサを用いたレーンマーキング検出モデルの設計である。
本稿では,コンボリューションエンコーダとアテンション誘導デコーダを設計し,イベントカメラを用いたレーンマーキング検出の新しい応用について検討する。
符号化された特徴の空間分解能は、密集したアラス空間ピラミッドプール(ASPP)ブロックで保持される。
デコーダの付加的注意機構は、レーンローカライゼーションを促進し、後処理計算を緩和する高次元入力符号化機能の性能を向上させる。
提案手法の有効性を車線抽出用DVSデータセット(DET)を用いて評価した。
実験結果は、マルチクラスおよびバイナリクラスのレーンマーキング検出タスクにおいて、5.54\%$と5.03\%$のF1$スコアが大幅に改善されたことを示している。
さらに、提案手法の共通点(iou$)は、マルチクラスおよびバイナリクラスのタスクにおいて、最もパフォーマンスの高い最先端の手法をそれぞれ6.50\%$と9.37\%$で上回った。
関連論文リスト
- Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Laneformer: Object-aware Row-Column Transformers for Lane Detection [96.62919884511287]
Laneformerは、自動運転における車線検出に適したトランスフォーマーベースのアーキテクチャである。
様々な視覚タスクにおけるトランスフォーマーエンコーダ・デコーダアーキテクチャの最近の進歩に触発されて、我々は新しいエンドツーエンドのLaneformerアーキテクチャの設計を進める。
論文 参考訳(メタデータ) (2022-03-18T10:14:35Z) - A Pedestrian Detection and Tracking Framework for Autonomous Cars:
Efficient Fusion of Camera and LiDAR Data [0.17205106391379021]
本稿では,カメラとLiDARセンサデータを用いた歩行者検出と追跡のための新しい手法を提案する。
検出フェーズは、LiDARストリームを計算的に抽出可能な深度画像に変換し、さらに、歩行者候補を特定するディープニューラルネットワークを開発する。
トラッキングフェーズは、Kalmanフィルタ予測と、シーン内の複数の歩行者を追跡するための光フローアルゴリズムの組み合わせである。
論文 参考訳(メタデータ) (2021-08-27T16:16:01Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Preprocessing Methods of Lane Detection and Tracking for Autonomous
Driving [0.0]
リアルタイムレーン検出とトラッキング(LDT)は、上記のタスクを実行するための最も結果的な部分の1つです。
本稿では,車線標識検出のための前処理手法と,車線境界をリアルタイムで追跡するシステムについて検討する。
論文 参考訳(メタデータ) (2021-04-10T13:03:52Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Structure-Aware Network for Lane Marker Extraction with Dynamic Vision
Sensor [14.55881454495574]
レーンマーカー抽出タスクにイベントベースのセンサの一種であるDynamic Vision Sensor (DVS)を導入する。
レーンマーカー抽出のための高分解能DVSデータセットを1280$times$800ピクセルで生成する。
次に,DVS画像におけるレーンマーカー抽出のための構造認識ネットワークを提案する。
提案するネットワークを,本データセット上の他の最先端レーンマーカー抽出モデルを用いて評価する。
論文 参考訳(メタデータ) (2020-08-14T06:28:20Z) - Heatmap-based Vanishing Point boosts Lane Detection [3.8170259685864165]
高速車線検出のためのマルチタスク・フュージョン・ネットワークアーキテクチャを提案する。
提案した融合戦略は、公開CULaneデータセットを用いて検証された。
実験結果から,本手法の車線検出精度は,最先端(SOTA)法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-07-30T17:17:00Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。