論文の概要: FBSNet: A Fast Bilateral Symmetrical Network for Real-Time Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2109.00699v1
- Date: Thu, 2 Sep 2021 04:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 13:54:19.639046
- Title: FBSNet: A Fast Bilateral Symmetrical Network for Real-Time Semantic
Segmentation
- Title(参考訳): FBSNet:リアルタイムセマンティックセグメンテーションのための高速双方向対称ネットワーク
- Authors: Guangwei Gao, Guoan Xu, Juncheng Li, Yi Yu, Huimin Lu, and Jian Yang
- Abstract要約: リアルタイムセマンティックセグメンテーションのためのFBSNet(Fast Bilateral Symmetrical Network)を提案する。
FBSNetには対称デコーダ構造があり、2つの分岐、意味情報分岐、空間詳細分岐がある。
CityscapesとCamVidの実験結果から、提案したFBSNetは精度と効率のバランスが良いことを示している。
- 参考スコア(独自算出の注目度): 23.25851281719734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time semantic segmentation, which can be visually understood as the
pixel-level classification task on the input image, currently has broad
application prospects, especially in the fast-developing fields of autonomous
driving and drone navigation. However, the huge burden of calculation together
with redundant parameters are still the obstacles to its technological
development. In this paper, we propose a Fast Bilateral Symmetrical Network
(FBSNet) to alleviate the above challenges. Specifically, FBSNet employs a
symmetrical encoder-decoder structure with two branches, semantic information
branch, and spatial detail branch. The semantic information branch is the main
branch with deep network architecture to acquire the contextual information of
the input image and meanwhile acquire sufficient receptive field. While spatial
detail branch is a shallow and simple network used to establish local
dependencies of each pixel for preserving details, which is essential for
restoring the original resolution during the decoding phase. Meanwhile, a
feature aggregation module (FAM) is designed to effectively combine the output
features of the two branches. The experimental results of Cityscapes and CamVid
show that the proposed FBSNet can strike a good balance between accuracy and
efficiency. Specifically, it obtains 70.9\% and 68.9\% mIoU along with the
inference speed of 90 fps and 120 fps on these two test datasets, respectively,
with only 0.62 million parameters on a single RTX 2080Ti GPU.
- Abstract(参考訳): 入力画像のピクセルレベル分類タスクとして視覚的に理解できるリアルタイムセマンティックセグメンテーションは、現在、特に自動運転とドローンナビゲーションの高速開発の分野で、幅広い応用可能性を持っている。
しかし、冗長なパラメータと計算の重荷は、まだその技術開発における障害である。
本稿では,上記の課題を解決するために,FBSNet(Fast Bilateral Symmetrical Network)を提案する。
具体的には、FBSNetは対称エンコーダデコーダ構造を用いており、2つの分岐、意味情報分岐、空間詳細分岐がある。
意味情報分岐(semantic information branch)は、入力画像の文脈情報を取得し、一方、十分な受容領域を取得するディープネットワークアーキテクチャのメインブランチである。
空間的細部ブランチは、細部を保存するために各ピクセルの局所的な依存関係を確立するために使用される浅くシンプルなネットワークである。
一方、機能集約モジュール(FAM)は、2つのブランチの出力特徴を効果的に組み合わせるように設計されている。
CityscapesとCamVidの実験結果から、提案したFBSNetは精度と効率のバランスが良いことを示している。
具体的には、70.9\%と68.9\% mIoUの2つのテストデータセットでそれぞれ90fpsと120fpsの推論速度が得られ、1つのRTX 2080Ti GPU上でのパラメータはわずか0.62万である。
関連論文リスト
- Unite-Divide-Unite: Joint Boosting Trunk and Structure for High-accuracy
Dichotomous Image Segmentation [48.995367430746086]
Dichotomous Image rendering (DIS) は、自然の風景からカテゴリーに依存しない前景の物体をピンポイントすることを目的としている。
本稿では, トランクと構造同定の有効性を高めるために, 相補的特徴を再構成し, 分割的に配置する, UDUN (Unite-Divide-Unite Network) を提案する。
1024*1024入力を用いて、ResNet-18で65.3fpsのリアルタイム推論を可能にする。
論文 参考訳(メタデータ) (2023-07-26T09:04:35Z) - PIDNet: A Real-time Semantic Segmentation Network Inspired by PID
Controllers [6.0653144230649865]
2分岐ネットワークアーキテクチャは、リアルタイムセマンティックセグメンテーションタスクにおける効率と有効性を示している。
PIDNetは、詳細な情報、コンテキスト、境界情報を解析するための3つの分岐を含む。
私たちのPIDNetのファミリーは、推論速度と精度の最良のトレードオフを達成し、その精度は、CityscapesとCamVidデータセットに類似した推論速度を持つ既存のモデル全てを上回ります。
論文 参考訳(メタデータ) (2022-06-04T23:16:52Z) - Adjacent Context Coordination Network for Salient Object Detection in
Optical Remote Sensing Images [102.75699068451166]
本稿では,光RSI-SODのためのエンコーダ・デコーダアーキテクチャにおいて,隣接した特徴のコーディネートを探索するための新しいアジャセントコンテキストコーディネートネットワーク(ACCoNet)を提案する。
提案されたACCoNetは、9つの評価基準の下で22の最先端メソッドを上回り、1つのNVIDIA Titan X GPU上で81fpsで動作する。
論文 参考訳(メタデータ) (2022-03-25T14:14:55Z) - Stage-Aware Feature Alignment Network for Real-Time Semantic
Segmentation of Street Scenes [59.81228011432776]
街路シーンのリアルタイムなセマンティックセグメンテーションのためのSFANet(Stage-Aware Feature Alignment Network)を提案する。
デコーダにおける各ステージのユニークな役割を考慮に入れ、新しいステージ認識機能拡張ブロック(FEB)は、エンコーダからの特徴マップの空間的詳細と文脈的情報を強化するように設計されている。
実験の結果,提案したSFANetは,ストリートシーンのリアルタイムセマンティックセグメンテーションにおける精度と速度のバランスが良好であることがわかった。
論文 参考訳(メタデータ) (2022-03-08T11:46:41Z) - Feature Reuse and Fusion for Real-time Semantic segmentation [0.0]
高分解能を維持しながら速度を上げる方法は議論され解決された問題である。
従来の設計経験に基づいて軽量ネットワークを設計し、最先端のリアルタイムセマンティックセマンティックセグメンテーションのレベルに到達したいと考えています。
論文 参考訳(メタデータ) (2021-05-27T06:47:02Z) - BiCnet-TKS: Learning Efficient Spatial-Temporal Representation for Video
Person Re-Identification [86.73532136686438]
映像人物再識別(reID)のための効率的な時空間表現法を提案する。
空間相補性モデリングのための双方向相補性ネットワーク(BiCnet)を提案する。
BiCnet-TKSは、約50%の計算量で最先端の性能を発揮する。
論文 参考訳(メタデータ) (2021-04-30T06:44:34Z) - Rethinking BiSeNet For Real-time Semantic Segmentation [6.622485130017622]
BiSeNetはリアルタイムセグメンテーションのための人気のある2ストリームネットワークであることが証明されている。
本稿では,stdc( short-term dense concatenate network)と呼ばれる新しい構造を提案する。
論文 参考訳(メタデータ) (2021-04-27T13:49:47Z) - MSCFNet: A Lightweight Network With Multi-Scale Context Fusion for
Real-Time Semantic Segmentation [27.232578592161673]
マルチスケールコンテキスト融合スキーム(MSCFNet)を用いた新しい軽量ネットワークを考案する。
提案されたMSCFNetは1.15Mパラメータのみを含み、71.9%のMean IoUを実現し、1つのTitan XP GPU構成で50 FPS以上で実行できる。
論文 参考訳(メタデータ) (2021-03-24T08:28:26Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - Real-time Semantic Segmentation with Context Aggregation Network [14.560708848716754]
本稿では,2分岐畳み込みニューラルネットワークを提案する。
本研究では,2つのセマンティックセグメンテーションデータセット,すなわちCityscapesデータセットとUAVidデータセットについて評価を行った。
論文 参考訳(メタデータ) (2020-11-02T14:16:23Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。