論文の概要: LENet: Lightweight And Efficient LiDAR Semantic Segmentation Using
Multi-Scale Convolution Attention
- arxiv url: http://arxiv.org/abs/2301.04275v1
- Date: Wed, 11 Jan 2023 02:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 16:54:38.555653
- Title: LENet: Lightweight And Efficient LiDAR Semantic Segmentation Using
Multi-Scale Convolution Attention
- Title(参考訳): lenet:マルチスケール畳み込みを考慮した軽量で効率的なlidarセマンティクスセグメンテーション
- Authors: Ben Ding
- Abstract要約: LiDARセマンティックセグメンテーションは、ロボット工学や自律運転における知覚システムに不可欠なシーンの理解を、車両に提供する。
エンコーダ・デコーダアーキテクチャを持つ軽量かつ効率的な投影型LiDARセマンティックセマンティックセマンティクスネットワークLENetを提案する。
提案するLENetは,最先端のセマンティックセマンティックセグメンテーションアプローチよりも軽量で効果的であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR semantic segmentation can provide vehicles with a rich understanding of
scene, which is essential to the perception system in robotics and autonomous
driving. In this paper, we propose LENet, a lightweight and efficient
projection-based LiDAR semantic segmentation network, which has an
encoder-decoder architecture. The encoder consists of a set of MSCA module,
which is a simple convolutional attention module to capture multi-scale feature
maps. The decoder consists of IAC module, which uses bilinear interpolation to
upsample the multi-resolution feature maps and a single convolution layer to
integrate the previous and current dimensional features. IAC is very
lightweight and dramatically reduces the complexity and storage cost. Moreover,
we introduce multiple auxiliary segmentation heads to further refine the
network accuracy. We have conducted detailed quantitative experiments, which
shows how each component contributes to the final performance. We evaluate our
approach on well known public benchmarks (SemanticKITTI), which demonstrates
our proposed LENet is more lightweight and effective than state-of-the-art
semantic segmentation approaches. Our full implementation will be available at
\url{https://github.com/fengluodb/LENet}.
- Abstract(参考訳): lidarセマンティックセグメンテーション(lidar semantic segmentation)は、ロボットや自動運転の知覚システムにとって不可欠なシーンの理解を車両に提供する。
本稿では,エンコーダ・デコーダアーキテクチャを持つ,軽量で効率的な投影型lidarセマンティクスセグメンテーションネットワークであるlenetを提案する。
エンコーダは、マルチスケールの特徴マップをキャプチャするための単純な畳み込みアテンションモジュールであるMSCAモジュールからなる。
このデコーダはIACモジュールで構成されており、双線形補間を用いて多重解像度特徴写像と1つの畳み込み層をアップサンプリングし、以前の次元特徴と現在の次元特徴を統合する。
IACは非常に軽量で、複雑さとストレージコストを劇的に削減します。
さらに,複数の補助セグメンテーションヘッドを導入し,ネットワークの精度をさらに向上させる。
我々は,各コンポーネントが最終性能にどのように貢献するかを示す,詳細な定量的実験を行った。
提案手法をよく知られたベンチマーク(semantickitti)で評価し,提案手法が最先端のセマンティクスセグメンテーション手法よりも軽量かつ効果的であることを実証した。
完全な実装は \url{https://github.com/fengluodb/lenet} で利用可能です。
関連論文リスト
- ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Towards Diverse Binary Segmentation via A Simple yet General Gated Network [71.19503376629083]
本稿では,バイナリセグメンテーションタスクに対処するシンプルな汎用ネットワーク(GateNet)を提案する。
多段ゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに選択的に送信することができる。
我々は,アトーラスの畳み込みを改善し,新規な折り畳み畳み畳み畳み畳み込みを形成する「Fold」操作を導入した。
論文 参考訳(メタデータ) (2023-03-18T11:26:36Z) - Lightweight Salient Object Detection in Optical Remote-Sensing Images
via Semantic Matching and Edge Alignment [61.45639694373033]
セマンティックマッチングとエッジアライメントに基づく光リモートセンシング画像(ORSI-SOD)のための新しい軽量ネットワークSeaNetを提案する。
具体的には、機能抽出のための軽量MobileNet-V2、高レベルの機能のための動的セマンティックマッチングモジュール(DSMM)、推論のためのポータブルデコーダが含まれる。
論文 参考訳(メタデータ) (2023-01-07T04:33:51Z) - CENet: Toward Concise and Efficient LiDAR Semantic Segmentation for
Autonomous Driving [4.6193503399184275]
我々はtextbfCENet という画像に基づくセマンティックセマンティックセマンティックネットワークを提案する。
当社のパイプラインは,最先端モデルと比較して,mIoUと推論性能がはるかに向上している。
論文 参考訳(メタデータ) (2022-07-26T07:22:19Z) - Multi-scale and Cross-scale Contrastive Learning for Semantic
Segmentation [5.281694565226513]
セグメンテーションネットワークによって抽出されたマルチスケール特徴の識別能力を高めるために,コントラスト学習を適用した。
まず、エンコーダのマルチスケール表現を共通の特徴空間にマッピングすることにより、教師付き局所言語制約の新しい形式をインスタンス化する。
論文 参考訳(メタデータ) (2022-03-25T01:24:24Z) - MSCFNet: A Lightweight Network With Multi-Scale Context Fusion for
Real-Time Semantic Segmentation [27.232578592161673]
マルチスケールコンテキスト融合スキーム(MSCFNet)を用いた新しい軽量ネットワークを考案する。
提案されたMSCFNetは1.15Mパラメータのみを含み、71.9%のMean IoUを実現し、1つのTitan XP GPU構成で50 FPS以上で実行できる。
論文 参考訳(メタデータ) (2021-03-24T08:28:26Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - EfficientFCN: Holistically-guided Decoding for Semantic Segmentation [49.27021844132522]
最先端セマンティックセマンティックセグメンテーションアルゴリズムは主に拡張されたFully Convolutional Networks (DilatedFCN)に基づいている
本稿では,拡張畳み込みのないイメージネット事前学習ネットワークをバックボーンとする,効率的なFCNを提案する。
このようなフレームワークは、計算コストの1/3しか持たない最先端の手法に比べて、同等またはそれ以上の性能を達成する。
論文 参考訳(メタデータ) (2020-08-24T14:48:23Z) - Semantic Segmentation With Multi Scale Spatial Attention For Self
Driving Cars [2.7317088388886384]
本稿では,様々なスケールのマルチスケール特徴融合を用いた新しいニューラルネットワークを提案し,その精度と効率的なセマンティックイメージセグメンテーションを提案する。
我々は、ResNetベースの特徴抽出器、ダウンサンプリング部における拡張畳み込み層、アップサンプリング部におけるアトラス畳み込み層を使用し、コンキャット操作を用いてそれらをマージした。
より文脈的な情報をエンコードし、ネットワークの受容領域を強化するため、新しいアテンションモジュールが提案されている。
論文 参考訳(メタデータ) (2020-06-30T20:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。