論文の概要: Context-Guided Spatial Feature Reconstruction for Efficient Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2405.06228v2
- Date: Thu, 18 Jul 2024 07:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 20:42:05.704073
- Title: Context-Guided Spatial Feature Reconstruction for Efficient Semantic Segmentation
- Title(参考訳): 効率的なセマンティックセグメンテーションのためのコンテキストガイド型空間特徴再構成
- Authors: Zhenliang Ni, Xinghao Chen, Yingjie Zhai, Yehui Tang, Yunhe Wang,
- Abstract要約: CGRSegは文脈誘導空間特徴再構成に基づく効率的かつ競争性の高いセグメンテーションフレームワークである。
ADE20K、COCO-Stuff、Pascal Contextベンチマークで広く評価され、最先端のセマンティックパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 38.43716478704896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation is an important task for numerous applications but it is still quite challenging to achieve advanced performance with limited computational costs. In this paper, we present CGRSeg, an efficient yet competitive segmentation framework based on context-guided spatial feature reconstruction. A Rectangular Self-Calibration Module is carefully designed for spatial feature reconstruction and pyramid context extraction. It captures the axial global context in both horizontal and vertical directions to explicitly model rectangular key areas. A shape self-calibration function is designed to make the key areas closer to foreground objects. Besides, a lightweight Dynamic Prototype Guided head is proposed to improve the classification of foreground objects by explicit class embedding. Our CGRSeg is extensively evaluated on ADE20K, COCO-Stuff, and Pascal Context benchmarks, and achieves state-of-the-art semantic performance. Specifically, it achieves $43.6\%$ mIoU on ADE20K with only $4.0$ GFLOPs, which is $0.9\%$ and $2.5\%$ mIoU better than SeaFormer and SegNeXt but with about $38.0\%$ fewer GFLOPs. Code is available at https://github.com/nizhenliang/CGRSeg.
- Abstract(参考訳): セマンティックセグメンテーションは多くのアプリケーションにとって重要なタスクであるが、計算コストを限定して高度な性能を達成することは依然として非常に困難である。
本稿では,文脈誘導型空間特徴再構成に基づく効率的かつ競争性の高いセグメンテーションフレームワークであるCGRSegを提案する。
矩形自己校正モジュールは空間的特徴再構成とピラミッドコンテキスト抽出のために慎重に設計されている。
水平方向と垂直方向の両方で軸方向のグローバルコンテキストをキャプチャし、長方形の鍵領域を明示的にモデル化する。
形状自己校正関数は、鍵領域を前景オブジェクトに近づけるように設計されている。
さらに,クラス埋め込みによる前景オブジェクトの分類を改善するために,軽量な動的プロトタイプガイドヘッドを提案する。
我々のCGRSegはADE20K、COCO-Stuff、Pascal Contextベンチマークで広範囲に評価され、最先端のセマンティックパフォーマンスを実現する。
具体的には、ADE20Kで43.6\% mIoUを達成し、GFLOPはわずか4.0ドル、$0.9\%$と$2.5\%$ mIoUはSeaFormerやSegNeXtより優れているが、約38.0\%のGFLOPは少ない。
コードはhttps://github.com/nizhenliang/CGRSegで入手できる。
関連論文リスト
- Instance Segmentation under Occlusions via Location-aware Copy-Paste
Data Augmentation [8.335108002480068]
MMSports 2023 DeepSportRadarは、バスケットボールのコンテキスト内での人間の対象のセグメンテーションに焦点を当てたデータセットを導入した。
この課題は、堅牢なデータ拡張技術と賢明なディープラーニングアーキテクチャの適用を必要とする。
我々の研究(コンペで1位)は、まず、より広い分布でより多くのトレーニングサンプルを生成することのできる、新しいデータ拡張技術を提案する。
論文 参考訳(メタデータ) (2023-10-27T07:44:25Z) - SegNeXt: Rethinking Convolutional Attention Design for Semantic
Segmentation [100.89770978711464]
セマンティックセグメンテーションのための単純な畳み込みネットワークアーキテクチャであるSegNeXtを提案する。
コンボリューションアテンションは、トランスフォーマーの自己認識メカニズムよりも、文脈情報をエンコードするより効率的で効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-09-18T14:33:49Z) - Unsupervised Semantic Segmentation by Distilling Feature Correspondences [94.73675308961944]
教師なしセマンティックセグメンテーション(unsupervised semantic segmentation)は、アノテーションなしで画像コーパス内の意味論的意味のあるカテゴリを発見し、ローカライズすることを目的としている。
STEGOは、教師なし特徴を高品質な個別のセマンティックラベルに蒸留する新しいフレームワークである。
STEGOは、CocoStuffとCityscapesの両課題において、先行技術よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-16T06:08:47Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z) - Improving Semantic Segmentation via Decoupled Body and Edge Supervision [89.57847958016981]
既存のセグメンテーションアプローチは、グローバルコンテキストをモデル化することでオブジェクトの内部の一貫性を改善すること、あるいはマルチスケールの特徴融合によって境界に沿ったオブジェクトの詳細を洗練することを目的としている。
本稿では,セマンティックセグメンテーションのための新しいパラダイムを提案する。
我々の洞察は、セマンティックセグメンテーションの魅力ある性能には、画像の高頻度と低頻度に対応するオブジェクトのテキストボディとテキストエッジを具体的にモデル化する必要があるということである。
さまざまなベースラインやバックボーンネットワークを備えた提案したフレームワークが,オブジェクト内部の一貫性とオブジェクト境界を向上させることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:11:22Z) - 1st Place Solutions for OpenImage2019 -- Object Detection and Instance
Segmentation [116.25081559037872]
この記事では,2つのチャンピオンチーム,検出トラックのMMfruit'とセグメンテーショントラックのMMfruitSeg'のソリューションについて,OpenImage Challenge 2019で紹介する。
一般に、対象検出器の場合、バックボーンの端の共有特徴は分類と回帰の両方に適さないことが知られている。
自己学習型最適特徴抽出によりオブジェクトの分類と回帰を分離するデカップリングヘッド(DH)を提案する。
論文 参考訳(メタデータ) (2020-03-17T06:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。