論文の概要: BiCANet: Bi-directional Contextual Aggregating Network for Image
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2003.09669v1
- Date: Sat, 21 Mar 2020 14:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 13:16:21.827845
- Title: BiCANet: Bi-directional Contextual Aggregating Network for Image
Semantic Segmentation
- Title(参考訳): BiCANet:画像セマンティックセグメンテーションのための双方向コンテキスト集約ネットワーク
- Authors: Quan Zhou, Dechun Cong, Bin Kang, Xiaofu Wu, Baoyu Zheng, Huimin Lu
and Longin Jan Latecki
- Abstract要約: 本稿では,セマンティックセグメンテーションのための双方向コンテキスト集約ネットワークBiCANetを提案する。
BiCANetは、コンテキスト凝縮プロジェクションブロック(CCPB)、双方向コンテキストインタラクションブロック(BCIB)、ミューティスケールコンテキストフュージョンブロック(MCFB)の3つの部分からなる、分類学的視点からコンテキストキューを集約する。
実験の結果,BiCANetはポストプロセッシング手法を使わずに最近の最先端ネットワークよりも優れていた。
- 参考スコア(独自算出の注目度): 23.99313644677773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploring contextual information in convolution neural networks (CNNs) has
gained substantial attention in recent years for semantic segmentation. This
paper introduces a Bi-directional Contextual Aggregating Network, called
BiCANet, for semantic segmentation. Unlike previous approaches that encode
context in feature space, BiCANet aggregates contextual cues from a categorical
perspective, which is mainly consist of three parts: contextual condensed
projection block (CCPB), bi-directional context interaction block (BCIB), and
muti-scale contextual fusion block (MCFB). More specifically, CCPB learns a
category-based mapping through a split-transform-merge architecture, which
condenses contextual cues with different receptive fields from intermediate
layer. BCIB, on the other hand, employs dense skipped-connections to enhance
the class-level context exchanging. Finally, MCFB integrates multi-scale
contextual cues by investigating short- and long-ranged spatial dependencies.
To evaluate BiCANet, we have conducted extensive experiments on three semantic
segmentation datasets: PASCAL VOC 2012, Cityscapes, and ADE20K. The
experimental results demonstrate that BiCANet outperforms recent
state-of-the-art networks without any postprocess techniques. Particularly,
BiCANet achieves the mIoU score of 86.7%, 82.4% and 38.66% on PASCAL VOC 2012,
Cityscapes and ADE20K testset, respectively.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)における文脈情報の探索は近年,セマンティックセグメンテーションにおいて大きな注目を集めている。
本稿では,セマンティックセグメンテーションのための双方向コンテキスト集約ネットワークBiCANetを提案する。
特徴空間のコンテキストを符号化する従来のアプローチとは異なり、BiCANetは、コンテキスト凝縮プロジェクションブロック(CCPB)、双方向コンテキスト相互作用ブロック(BCIB)、ミューティスケールコンテキスト融合ブロック(MCFB)の3つの部分からなる分類的視点からコンテキストキューを集約する。
より具体的には、CCPBは、中間層から異なる受容場を持つコンテキストキューを凝縮する分割変換マージアーキテクチャを通してカテゴリベースのマッピングを学ぶ。
一方、BCIBはクラスレベルのコンテキスト交換を強化するために高密度のスキップ接続を使用している。
最後に、MCFBは、短距離および長距離空間依存性を調査することによって、マルチスケールのコンテキストキューを統合する。
BiCANetを評価するために,PASCAL VOC,Cityscapes,ADE20Kの3つのセマンティックセグメンテーションデータセットについて広範な実験を行った。
実験の結果,BiCANetはポストプロセッシング手法を使わずに最近の最先端ネットワークよりも優れていた。
特にBiCANetは、PASCAL VOC 2012、Cityscapes、ADE20KでmIoUスコアが86.7%、82.4%、38.66%に達した。
関連論文リスト
- Contextrast: Contextual Contrastive Learning for Semantic Segmentation [9.051352746190448]
コントラスト学習に基づくセマンティックセグメンテーション手法であるContextrastを提案する。
提案手法は,文脈コントラスト学習 (CCL) と境界認識型負サンプリング (B) の2つの部分からなる。
我々のContextrastはセマンティックセグメンテーションネットワークの性能を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2024-04-16T15:04:55Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - Boundary Guided Context Aggregation for Semantic Segmentation [23.709865471981313]
我々は、画像の全体的意味理解を促進するために、コンテキストアグリゲーションのための重要なガイダンスとして境界を利用する。
我々はCityscapesとADE20Kデータベースに関する広範な実験を行い、最先端の手法で同等の結果を得る。
論文 参考訳(メタデータ) (2021-10-27T17:04:38Z) - GP-S3Net: Graph-based Panoptic Sparse Semantic Segmentation Network [1.9949920338542213]
GP-S3Netは提案なしのアプローチであり、オブジェクトを識別するためにオブジェクトの提案は必要ない。
私たちの新しいデザインは、セマンティックな結果を処理する新しいインスタンスレベルのネットワークで構成されています。
GP-S3Netは現在の最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2021-08-18T21:49:58Z) - Visual Boundary Knowledge Translation for Foreground Segmentation [57.32522585756404]
視覚境界知識を明示的に考慮したモデルの構築を試みており、未確認カテゴリのセグメンテーションにおけるトレーニングの労力を減らそうとしている。
数十のラベル付きサンプルをガイダンスとして使うだけで、Trans-Netは完全な教師付きメソッドと同等のクローズな結果が得られる。
論文 参考訳(メタデータ) (2021-08-01T07:10:25Z) - Semi-Supervised Semantic Segmentation with Cross Pseudo Supervision [56.950950382415925]
クロス擬似監督(CPS)と呼ばれる新しい整合性正規化手法を提案する。
CPS整合性には2つの役割がある: 同じ入力画像に対する2つの摂動ネットワークの予測間の高い類似性を奨励し、擬似ラベル付きラベル付きラベル付きデータを使用することでトレーニングデータを拡張する。
実験の結果,Cityscapes と PASCAL VOC 2012 を用いた半教師付きセグメンテーション性能が得られた。
論文 参考訳(メタデータ) (2021-06-02T15:21:56Z) - BiCnet-TKS: Learning Efficient Spatial-Temporal Representation for Video
Person Re-Identification [86.73532136686438]
映像人物再識別(reID)のための効率的な時空間表現法を提案する。
空間相補性モデリングのための双方向相補性ネットワーク(BiCnet)を提案する。
BiCnet-TKSは、約50%の計算量で最先端の性能を発揮する。
論文 参考訳(メタデータ) (2021-04-30T06:44:34Z) - CTNet: Context-based Tandem Network for Semantic Segmentation [77.4337867789772]
本研究では,空間コンテキスト情報とチャネルコンテキスト情報とを対話的に探索し,新しいコンテキストベースタンデムネットワーク(CTNet)を提案する。
セマンティックセグメンテーションのための学習表現の性能をさらに向上するため、2つのコンテキストモジュールの結果を適応的に統合する。
論文 参考訳(メタデータ) (2021-04-20T07:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。