論文の概要: Structure-Aware Network for Lane Marker Extraction with Dynamic Vision
Sensor
- arxiv url: http://arxiv.org/abs/2008.06204v1
- Date: Fri, 14 Aug 2020 06:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:19:32.924147
- Title: Structure-Aware Network for Lane Marker Extraction with Dynamic Vision
Sensor
- Title(参考訳): 動的視覚センサを用いた車線マーカー抽出のための構造認識ネットワーク
- Authors: Wensheng Cheng, Hao Luo, Wen Yang, Lei Yu, Wei Li
- Abstract要約: レーンマーカー抽出タスクにイベントベースのセンサの一種であるDynamic Vision Sensor (DVS)を導入する。
レーンマーカー抽出のための高分解能DVSデータセットを1280$times$800ピクセルで生成する。
次に,DVS画像におけるレーンマーカー抽出のための構造認識ネットワークを提案する。
提案するネットワークを,本データセット上の他の最先端レーンマーカー抽出モデルを用いて評価する。
- 参考スコア(独自算出の注目度): 14.55881454495574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane marker extraction is a basic yet necessary task for autonomous driving.
Although past years have witnessed major advances in lane marker extraction
with deep learning models, they all aim at ordinary RGB images generated by
frame-based cameras, which limits their performance in extreme cases, like huge
illumination change. To tackle this problem, we introduce Dynamic Vision Sensor
(DVS), a type of event-based sensor to lane marker extraction task and build a
high-resolution DVS dataset for lane marker extraction. We collect the raw
event data and generate 5,424 DVS images with a resolution of 1280$\times$800
pixels, the highest one among all DVS datasets available now. All images are
annotated with multi-class semantic segmentation format. We then propose a
structure-aware network for lane marker extraction in DVS images. It can
capture directional information comprehensively with multidirectional slice
convolution. We evaluate our proposed network with other state-of-the-art lane
marker extraction models on this dataset. Experimental results demonstrate that
our method outperforms other competitors. The dataset is made publicly
available, including the raw event data, accumulated images and labels.
- Abstract(参考訳): レーンマーカーの抽出は、自動運転に必要な基本的なタスクである。
過去数年間、ディープラーニングモデルによるレーンマーカー抽出の大きな進歩が見られたが、いずれもフレームベースのカメラによって生成された通常のRGBイメージを目標としている。
この問題に対処するために,車線マーカー抽出タスクのためのイベントベースセンサの一種であるダイナミックビジョンセンサ(DVS)を導入し,車線マーカー抽出のための高分解能DVSデータセットを構築した。
生のイベントデータを集めて、5,424dvs画像を生成し、解像度は180$\times$800で、現在利用可能なすべてのdvsデータセットの中で最高です。
すべての画像はマルチクラスセマンティクスセグメンテーション形式でアノテートされている。
DVS画像におけるレーンマーカー抽出のための構造認識ネットワークを提案する。
多方向スライス畳み込みにより、総合的な方向情報を捉えることができる。
提案するネットワークを,このデータセット上の他の最先端レーンマーカー抽出モデルを用いて評価する。
実験の結果,本手法は他の競争相手よりも優れていた。
データセットは、生のイベントデータ、蓄積された画像、ラベルなど、一般公開されている。
関連論文リスト
- DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - Lidar Annotation Is All You Need [0.0]
本稿では,畳み込みニューラルネットワークを用いたマルチセンサ構成による画像分割の効率向上を目的とする。
当社のアプローチにおける重要な革新は、点雲からの粗い接地トラスマスクに対処する、マスク付き損失である。
ベンチマークデータセットに対するアプローチの実験的検証は、高品質の画像セグメンテーションモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-11-08T15:55:18Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Drive&Segment: Unsupervised Semantic Segmentation of Urban Scenes via
Cross-modal Distillation [32.33170182669095]
本研究は,自動車が収集した生の非キュレートデータからのみ,手動のアノテーションを使わずに,都市景観における画素単位のセマンティックイメージのセマンティックセマンティックセマンティクスの学習について検討する。
本稿では,同期化LiDARと画像データを利用した意味的イメージセグメンテーションのクロスモーダルな教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T17:35:46Z) - DatasetGAN: Efficient Labeled Data Factory with Minimal Human Effort [117.41383937100751]
現在のディープネットワークは、大規模なデータセットのトレーニングの恩恵を受ける、非常にデータハングリーです。
GAN潜入コードがどのようにデコードされ、イメージのセマンティックセグメンテーションを生成するかを示す。
これらの生成されたデータセットは、実際のデータセットと同じように、コンピュータビジョンアーキテクチャのトレーニングに使用できます。
論文 参考訳(メタデータ) (2021-04-13T20:08:29Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - TJU-DHD: A Diverse High-Resolution Dataset for Object Detection [48.94731638729273]
大規模でリッチな多様性と高解像度のデータセットは、よりよいオブジェクト検出方法を開発する上で重要な役割を果たす。
私たちは多種多様な高解像度データセット(TJU-DHD)を構築します。
データセットには115,354枚の高解像度画像と709,330個のラベル付きオブジェクトが含まれており、スケールと外観に大きな違いがある。
論文 参考訳(メタデータ) (2020-11-18T09:32:24Z) - LDNet: End-to-End Lane Marking Detection Approach Using a Dynamic Vision
Sensor [0.0]
本稿では,イベントカメラを用いたレーンマーキング検出の新たな応用について検討する。
符号化された特徴の空間分解能は、密度の高密度な空間ピラミッドプールブロックによって保持される。
提案手法の有効性をDVSデータセットを用いて評価した。
論文 参考訳(メタデータ) (2020-09-17T02:15:41Z) - FusionLane: Multi-Sensor Fusion for Lane Marking Semantic Segmentation
Using Deep Neural Networks [1.0062127381149395]
本稿では,LIDARとカメラ融合深層ニューラルネットワークに基づくレーンマーキングセマンティックセマンティックセマンティクス手法を提案する。
14,000以上の画像データセットを用いた実験により,雲鳥の眼球図のセマンティックセグメンテーションにおいて,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-03-09T20:33:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。