論文の概要: Stage-Aware Feature Alignment Network for Real-Time Semantic
Segmentation of Street Scenes
- arxiv url: http://arxiv.org/abs/2203.04031v1
- Date: Tue, 8 Mar 2022 11:46:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 14:53:32.087652
- Title: Stage-Aware Feature Alignment Network for Real-Time Semantic
Segmentation of Street Scenes
- Title(参考訳): ストリートシーンのリアルタイム意味セマンティクスセグメンテーションのためのステージアウェア特徴アライメントネットワーク
- Authors: Xi Weng, Yan Yan, Si Chen, Jing-Hao Xue, Hanzi Wang
- Abstract要約: 街路シーンのリアルタイムなセマンティックセグメンテーションのためのSFANet(Stage-Aware Feature Alignment Network)を提案する。
デコーダにおける各ステージのユニークな役割を考慮に入れ、新しいステージ認識機能拡張ブロック(FEB)は、エンコーダからの特徴マップの空間的詳細と文脈的情報を強化するように設計されている。
実験の結果,提案したSFANetは,ストリートシーンのリアルタイムセマンティックセグメンテーションにおける精度と速度のバランスが良好であることがわかった。
- 参考スコア(独自算出の注目度): 59.81228011432776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few years, deep convolutional neural network-based methods have
made great progress in semantic segmentation of street scenes. Some recent
methods align feature maps to alleviate the semantic gap between them and
achieve high segmentation accuracy. However, they usually adopt the feature
alignment modules with the same network configuration in the decoder and thus
ignore the different roles of stages of the decoder during feature aggregation,
leading to a complex decoder structure. Such a manner greatly affects the
inference speed. In this paper, we present a novel Stage-aware Feature
Alignment Network (SFANet) based on the encoder-decoder structure for real-time
semantic segmentation of street scenes. Specifically, a Stage-aware Feature
Alignment module (SFA) is proposed to align and aggregate two adjacent levels
of feature maps effectively. In the SFA, by taking into account the unique role
of each stage in the decoder, a novel stage-aware Feature Enhancement Block
(FEB) is designed to enhance spatial details and contextual information of
feature maps from the encoder. In this way, we are able to address the
misalignment problem with a very simple and efficient multi-branch decoder
structure. Moreover, an auxiliary training strategy is developed to explicitly
alleviate the multi-scale object problem without bringing additional
computational costs during the inference phase. Experimental results show that
the proposed SFANet exhibits a good balance between accuracy and speed for
real-time semantic segmentation of street scenes. In particular, based on
ResNet-18, SFANet respectively obtains 78.1% and 74.7% mean of class-wise
Intersection-over-Union (mIoU) at inference speeds of 37 FPS and 96 FPS on the
challenging Cityscapes and CamVid test datasets by using only a single GTX
1080Ti GPU.
- Abstract(参考訳): 過去数年間、深い畳み込みニューラルネットワークに基づく手法は、ストリートシーンのセマンティックセグメンテーションにおいて大きな進歩を遂げてきた。
近年の手法では,特徴マップを協調して意味的ギャップを緩和し,高いセグメンテーション精度を実現する。
しかし、通常はデコーダに同じネットワーク構成を持つ機能アライメントモジュールを採用するため、機能アグリゲーション中にデコーダの異なるステージの役割を無視し、複雑なデコーダ構造に繋がる。
このような方法は推論速度に大きな影響を及ぼす。
本稿では,街路シーンのリアルタイムセマンティックセマンティックセグメンテーションのためのエンコーダ・デコーダ構造に基づくSFANet(Stage-Aware Feature Alignment Network)を提案する。
具体的には、2つの隣接する特徴マップのレベルを効果的に調整・集約するために、ステージアウェア機能アライメントモジュール(sfa)を提案する。
SFAでは、デコーダにおける各ステージのユニークな役割を考慮し、新しいステージ認識機能拡張ブロック(FEB)を設計し、エンコーダからの特徴マップの空間的詳細と文脈的情報を強化する。
このようにして、非常にシンプルで効率的なマルチブランチデコーダ構造で、不整合問題に対処することができる。
さらに、推論フェーズ中に計算コストを増すことなく、マルチスケール対象問題を明確に緩和する補助訓練戦略を開発した。
実験の結果,提案するsfanetは,道路シーンのリアルタイムセマンティクスセグメンテーションにおいて,精度と速度のバランスが良好であることが判明した。
特に、ResNet-18に基づいて、SFANetは、GTX 1080Ti GPUを1つだけ使用して、挑戦的なCityscapesとCamVidテストデータセット上で、37 FPSと96 FPSの推論速度で、クラスワイドのIntersection-over-Union(mIoU)の平均78.1%と74.7%を取得する。
関連論文リスト
- SegNetr: Rethinking the local-global interactions and skip connections
in U-shaped networks [1.121518046252855]
U字型ネットワークは、シンプルで調整が容易な構造のため、医療画像セグメンテーションの分野を支配してきた。
我々は任意の段階で動的に局所的・局所的相互作用を行なえる新しいSegNetrブロックを導入する。
59%と76%のパラメータとGFLOPがバニラU-Netより少ない4つの主流医療画像セグメンテーションデータセットに対するSegNetrの有効性を検証した。
論文 参考訳(メタデータ) (2023-07-06T12:39:06Z) - SFNet: Faster and Accurate Semantic Segmentation via Semantic Flow [88.97790684009979]
性能を改善するための一般的な実践は、強力な意味表現を持つ高解像度の特徴写像を得ることである。
隣接レベルの特徴マップ間のテキストセマンティックフローを学習するためのフローアライメントモジュール(FAM)を提案する。
また,高分解能特徴写像と低分解能特徴写像を直接整列するGated Dual Flow Alignment Moduleを提案する。
論文 参考訳(メタデータ) (2022-07-10T08:25:47Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - Deep Multi-Branch Aggregation Network for Real-Time Semantic
Segmentation in Street Scenes [32.54045305607654]
多くの最先端のリアルタイムセマンティックセグメンテーション手法は、空間的詳細や文脈情報を犠牲にして高速な推論を行う傾向にある。
街路シーンにおけるリアルタイムセマンティックセグメンテーションを実現するために,エンコーダ・デコーダ構造に基づく新しいディープ・マルチブランチ・アグリゲーション・ネットワーク(DMA-Net)を提案する。
提案したDMA-Netは,1個のNVIDIA GTX 1080Ti GPUのみを用いて,それぞれ46.7 FPSと119.8 FPSの予測速度で,平均77.0%,平均73.6%のUnion(mIoU)が得られる。
論文 参考訳(メタデータ) (2022-03-08T12:07:32Z) - Feature Reuse and Fusion for Real-time Semantic segmentation [0.0]
高分解能を維持しながら速度を上げる方法は議論され解決された問題である。
従来の設計経験に基づいて軽量ネットワークを設計し、最先端のリアルタイムセマンティックセマンティックセグメンテーションのレベルに到達したいと考えています。
論文 参考訳(メタデータ) (2021-05-27T06:47:02Z) - Rethinking BiSeNet For Real-time Semantic Segmentation [6.622485130017622]
BiSeNetはリアルタイムセグメンテーションのための人気のある2ストリームネットワークであることが証明されている。
本稿では,stdc( short-term dense concatenate network)と呼ばれる新しい構造を提案する。
論文 参考訳(メタデータ) (2021-04-27T13:49:47Z) - Dense Interaction Learning for Video-based Person Re-identification [75.03200492219003]
ビデオベースの人物再ID問題に取り組むために,Dense Interaction Learning (DenseIL) というハイブリッドフレームワークを提案する。
DenseILにはCNNエンコーダとDense Interaction (DI)デコーダが含まれている。
当社の実験は、複数の標準ビデオベースの再IDデータセットにおけるすべての最先端の手法を一貫して大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-16T12:22:08Z) - Real-time Semantic Segmentation with Fast Attention [94.88466483540692]
本稿では,高解像度画像と映像をリアルタイムにセマンティックセグメンテーションするための新しいアーキテクチャを提案する。
提案したアーキテクチャは我々の空間的注意の速さに依存しており、これは一般的な自己注意機構の単純かつ効率的な修正である。
複数のデータセットに対する結果から,既存の手法に比べて精度と速度が向上し,優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-07T22:37:16Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。