論文の概要: FusionLane: Multi-Sensor Fusion for Lane Marking Semantic Segmentation
Using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2003.04404v1
- Date: Mon, 9 Mar 2020 20:33:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 07:48:01.492662
- Title: FusionLane: Multi-Sensor Fusion for Lane Marking Semantic Segmentation
Using Deep Neural Networks
- Title(参考訳): fusionlane: ディープニューラルネットワークを用いたレーンマーキング意味セグメンテーションのためのマルチセンサー融合
- Authors: Ruochen Yin, Biao Yu, Huapeng Wu, Yutao Song, Runxin Niu
- Abstract要約: 本稿では,LIDARとカメラ融合深層ニューラルネットワークに基づくレーンマーキングセマンティックセマンティックセマンティクス手法を提案する。
14,000以上の画像データセットを用いた実験により,雲鳥の眼球図のセマンティックセグメンテーションにおいて,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 1.0062127381149395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is a crucial step to achieve effective semantic segmentation of lane
marking during the construction of the lane level high-precision map. In recent
years, many image semantic segmentation methods have been proposed. These
methods mainly focus on the image from camera, due to the limitation of the
sensor itself, the accurate three-dimensional spatial position of the lane
marking cannot be obtained, so the demand for the lane level high-precision map
construction cannot be met. This paper proposes a lane marking semantic
segmentation method based on LIDAR and camera fusion deep neural network.
Different from other methods, in order to obtain accurate position information
of the segmentation results, the semantic segmentation object of this paper is
a bird's eye view converted from a LIDAR points cloud instead of an image
captured by a camera. This method first uses the deeplabv3+ [\ref{ref:1}]
network to segment the image captured by the camera, and the segmentation
result is merged with the point clouds collected by the LIDAR as the input of
the proposed network. In this neural network, we also add a long short-term
memory (LSTM) structure to assist the network for semantic segmentation of lane
markings by using the the time series information. The experiments on more than
14,000 image datasets which we have manually labeled and expanded have shown
the proposed method has better performance on the semantic segmentation of the
points cloud bird's eye view. Therefore, the automation of high-precision map
construction can be significantly improved. Our code is available at
https://github.com/rolandying/FusionLane.
- Abstract(参考訳): レーンレベルの高精度マップの構築において,レーンマーキングの効果的なセマンティックセマンティックセグメンテーションを実現するための重要なステップである。
近年,多くのイメージセマンティックセグメンテーション手法が提案されている。
これらの手法は主にカメラからの映像に焦点を当てており、センサ自体の限界により、車線マーキングの正確な3次元空間位置を得ることができず、車線レベルの高精度マップ構築の需要を満たすことができない。
本稿では,lidarとカメラ融合深層ニューラルネットワークを用いたレーンマーキング意味セグメンテーション手法を提案する。
他の方法とは異なり、セグメンテーション結果の正確な位置情報を得るために、本論文のセマンティックセグメンテーション対象は、カメラで撮影された画像ではなく、ライダーポイントクラウドから変換された鳥の目視である。
本手法は,まずDeeplabv3+[\ref{ref:1}]ネットワークを用いてカメラが捉えた画像を分割し,提案したネットワークの入力としてLIDARが収集した点雲とセグメンテーション結果をマージする。
このニューラルネットワークでは,時系列情報を用いてレーンマーキングのセマンティクスセグメンテーションを支援するために,long short-term memory (lstm)構造も追加する。
手動でラベル付けおよび拡張した14,000以上の画像データセットに対する実験により,雲鳥の眼球図のセマンティックセグメンテーションにおいて,提案手法の有効性が示された。
そのため、高精度マップ構築の自動化を大幅に改善することができる。
私たちのコードはhttps://github.com/rolandying/fusionlaneで利用可能です。
関連論文リスト
- Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation [4.777011444412729]
We propose a light-weight end-to-end segmentation framework based on multi-task learning, called Edge Attention autoencoder Network (EAA-Net)。
提案手法は,クラス間特徴の抽出にセグメンテーションネットワークを利用するだけでなく,フォアグラウンド内でのクラス内特徴の抽出にも再構成ネットワークを適用する。
実験結果から,医用画像分割作業において,本手法が良好に機能することが確認された。
論文 参考訳(メタデータ) (2022-08-19T07:42:55Z) - From Explanations to Segmentation: Using Explainable AI for Image
Segmentation [1.8581514902689347]
我々は、説明可能なAI(XAI)コミュニティの進歩の上に構築し、ピクセル単位のバイナリセグメンテーションを抽出する。
我々は,既存のU-Netセグメンテーションアーキテクチャと比較して,同様の結果が得られることを示す。
トレーニングサンプルは画像レベルでのみラベル付けする必要があるため,提案手法は弱教師付きでトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-01T10:26:10Z) - Multi-Scale Feature Fusion: Learning Better Semantic Segmentation for
Road Pothole Detection [9.356003255288417]
本稿では,単一モーダルなセマンティックセグメンテーションに基づく新しいポットホール検出手法を提案する。
まず、畳み込みニューラルネットワークを用いて入力画像から視覚的特徴を抽出する。
チャネルアテンションモジュールは、異なるフィーチャーマップの一貫性を高めるために、チャネル機能を再考する。
論文 参考訳(メタデータ) (2021-12-24T15:07:47Z) - A Novel Upsampling and Context Convolution for Image Semantic
Segmentation [0.966840768820136]
最近のセマンティックセグメンテーションの方法は、しばしば深い畳み込みニューラルネットワークを用いたエンコーダデコーダ構造を採用している。
ネットワーク内の画像の空間情報を効率的に保存するために,ガイドフィルタに基づく高密度アップサンプリング畳み込み法を提案する。
ADE20KとPascal-Contextのベンチマークデータセットでは,それぞれ82.86%,81.62%の画素精度を記録した。
論文 参考訳(メタデータ) (2021-03-20T06:16:42Z) - Semantic Segmentation With Multi Scale Spatial Attention For Self
Driving Cars [2.7317088388886384]
本稿では,様々なスケールのマルチスケール特徴融合を用いた新しいニューラルネットワークを提案し,その精度と効率的なセマンティックイメージセグメンテーションを提案する。
我々は、ResNetベースの特徴抽出器、ダウンサンプリング部における拡張畳み込み層、アップサンプリング部におけるアトラス畳み込み層を使用し、コンキャット操作を用いてそれらをマージした。
より文脈的な情報をエンコードし、ネットワークの受容領域を強化するため、新しいアテンションモジュールが提案されている。
論文 参考訳(メタデータ) (2020-06-30T20:19:09Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。