論文の概要: EfficientFCN: Holistically-guided Decoding for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2008.10487v2
- Date: Thu, 27 Aug 2020 02:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 12:08:36.952830
- Title: EfficientFCN: Holistically-guided Decoding for Semantic Segmentation
- Title(参考訳): EfficientFCN: セマンティックセグメンテーションのためのホログラフィック誘導デコーディング
- Authors: Jianbo Liu, Junjun He, Jiawei Zhang, Jimmy S. Ren, Hongsheng Li
- Abstract要約: 最先端セマンティックセマンティックセグメンテーションアルゴリズムは主に拡張されたFully Convolutional Networks (DilatedFCN)に基づいている
本稿では,拡張畳み込みのないイメージネット事前学習ネットワークをバックボーンとする,効率的なFCNを提案する。
このようなフレームワークは、計算コストの1/3しか持たない最先端の手法に比べて、同等またはそれ以上の性能を達成する。
- 参考スコア(独自算出の注目度): 49.27021844132522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Both performance and efficiency are important to semantic segmentation.
State-of-the-art semantic segmentation algorithms are mostly based on dilated
Fully Convolutional Networks (dilatedFCN), which adopt dilated convolutions in
the backbone networks to extract high-resolution feature maps for achieving
high-performance segmentation performance. However, due to many convolution
operations are conducted on the high-resolution feature maps, such
dilatedFCN-based methods result in large computational complexity and memory
consumption. To balance the performance and efficiency, there also exist
encoder-decoder structures that gradually recover the spatial information by
combining multi-level feature maps from the encoder. However, the performances
of existing encoder-decoder methods are far from comparable with the
dilatedFCN-based methods. In this paper, we propose the EfficientFCN, whose
backbone is a common ImageNet pre-trained network without any dilated
convolution. A holistically-guided decoder is introduced to obtain the
high-resolution semantic-rich feature maps via the multi-scale features from
the encoder. The decoding task is converted to novel codebook generation and
codeword assembly task, which takes advantages of the high-level and low-level
features from the encoder. Such a framework achieves comparable or even better
performance than state-of-the-art methods with only 1/3 of the computational
cost. Extensive experiments on PASCAL Context, PASCAL VOC, ADE20K validate the
effectiveness of the proposed EfficientFCN.
- Abstract(参考訳): セマンティックセグメンテーションには性能と効率が重要である。
最先端セマンティックセグメンテーションアルゴリズムは主に拡張されたFully Convolutional Networks (dilatedFCN) に基づいており、背骨ネットワークに拡張畳み込みを適用して高性能セグメンテーション性能を実現するための高解像度特徴マップを抽出する。
しかし、高分解能特徴写像上で多くの畳み込み演算を行うため、そのような拡張FCN法は計算複雑性とメモリ消費を増大させる。
性能と効率のバランスをとるために、エンコーダから多層特徴写像を組み合わせることで空間情報を徐々に復元するエンコーダ・デコーダ構造が存在する。
しかし、既存のエンコーダデコーダ法の性能は、拡張FCN法に匹敵するものではない。
本稿では,拡張畳み込みのないイメージネット事前学習ネットワークをバックボーンとする,効率的なFCNを提案する。
階層型デコーダを導入し、エンコーダからマルチスケール機能を介して高分解能なセマンティクスリッチな特徴マップを得る。
復号化タスクは新しいコードブック生成とコードワードアセンブリタスクに変換され、エンコーダから高レベルかつ低レベルの機能を利用する。
このようなフレームワークは、計算コストの1/3しかかからず、最先端のメソッドと同等あるいはそれ以上のパフォーマンスを実現している。
PASCAL Context, PASCAL VOC, ADE20Kの広範囲にわたる実験により, 提案した有効FCNの有効性が検証された。
関連論文リスト
- LENet: Lightweight And Efficient LiDAR Semantic Segmentation Using
Multi-Scale Convolution Attention [0.0]
本稿では,LDARに基づくセマンティックセマンティックセマンティクスのためのエンコーダデコーダ構造を持つLENetと呼ばれるプロジェクションベースのセマンティクスセマンティクスセマンティクスネットワークを提案する。
エンコーダは、特徴を捉えるために、様々な受信フィールドサイズを持つ新しいマルチスケール・コンボリューション・アテンション(MSCA)モジュールで構成されている。
提案手法は, 最先端のセマンティックセグメンテーション法と比較して, 軽量で, 効率的で, 堅牢であることを示す。
論文 参考訳(メタデータ) (2023-01-11T02:51:38Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Attention guided global enhancement and local refinement network for
semantic segmentation [5.881350024099048]
エンコーダ・デコーダアーキテクチャを用いて,軽量なセマンティックセマンティックセマンティクスネットワークを開発した。
高レベル特徴マップからグローバル情報を集約するグローバルエンハンスメント手法を提案する。
ローカルリファインメントモジュールは、デコーダ機能をセマンティックガイダンスとして利用することによって開発される。
この2つの手法はContext Fusion Blockに統合され、それに基づいてAttention Guided Global enhancement and Local refinement Network (AGLN) が精巧に設計されている。
論文 参考訳(メタデータ) (2022-04-09T02:32:24Z) - Towards Deep and Efficient: A Deep Siamese Self-Attention Fully
Efficient Convolutional Network for Change Detection in VHR Images [28.36808011351123]
EffCDNetという非常に深く効率的なCDネットワークを提示する。
EffCDNetでは、ディープワイド畳み込みとチャネルシャッフル機構によるグループ畳み込みからなる効率的な畳み込みが導入された。
難易度の高い2つのCDデータセットにおいて、本手法は他のSOTA FCN法よりも優れている。
論文 参考訳(メタデータ) (2021-08-18T14:02:38Z) - Dynamic Neural Representational Decoders for High-Resolution Semantic
Segmentation [98.05643473345474]
動的ニューラル表現デコーダ(NRD)と呼ばれる新しいデコーダを提案する。
エンコーダの出力上の各位置がセマンティックラベルの局所的なパッチに対応するので、この研究では、これらの局所的なパッチをコンパクトなニューラルネットワークで表現する。
このニューラル表現により、意味ラベル空間に先行する滑らかさを活用することができ、デコーダをより効率的にすることができる。
論文 参考訳(メタデータ) (2021-07-30T04:50:56Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - MSCFNet: A Lightweight Network With Multi-Scale Context Fusion for
Real-Time Semantic Segmentation [27.232578592161673]
マルチスケールコンテキスト融合スキーム(MSCFNet)を用いた新しい軽量ネットワークを考案する。
提案されたMSCFNetは1.15Mパラメータのみを含み、71.9%のMean IoUを実現し、1つのTitan XP GPU構成で50 FPS以上で実行できる。
論文 参考訳(メタデータ) (2021-03-24T08:28:26Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。