論文の概要: CTNet: Context-based Tandem Network for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2104.09805v1
- Date: Tue, 20 Apr 2021 07:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:39:56.535650
- Title: CTNet: Context-based Tandem Network for Semantic Segmentation
- Title(参考訳): CTNet:セマンティックセグメンテーションのためのコンテキストベースタンデムネットワーク
- Authors: Zechao Li, Yanpeng Sun, and Jinhui Tang
- Abstract要約: 本研究では,空間コンテキスト情報とチャネルコンテキスト情報とを対話的に探索し,新しいコンテキストベースタンデムネットワーク(CTNet)を提案する。
セマンティックセグメンテーションのための学習表現の性能をさらに向上するため、2つのコンテキストモジュールの結果を適応的に統合する。
- 参考スコア(独自算出の注目度): 77.4337867789772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contextual information has been shown to be powerful for semantic
segmentation. This work proposes a novel Context-based Tandem Network (CTNet)
by interactively exploring the spatial contextual information and the channel
contextual information, which can discover the semantic context for semantic
segmentation. Specifically, the Spatial Contextual Module (SCM) is leveraged to
uncover the spatial contextual dependency between pixels by exploring the
correlation between pixels and categories. Meanwhile, the Channel Contextual
Module (CCM) is introduced to learn the semantic features including the
semantic feature maps and class-specific features by modeling the long-term
semantic dependence between channels. The learned semantic features are
utilized as the prior knowledge to guide the learning of SCM, which can make
SCM obtain more accurate long-range spatial dependency. Finally, to further
improve the performance of the learned representations for semantic
segmentation, the results of the two context modules are adaptively integrated
to achieve better results. Extensive experiments are conducted on three
widely-used datasets, i.e., PASCAL-Context, ADE20K and PASCAL VOC2012. The
results demonstrate the superior performance of the proposed CTNet by
comparison with several state-of-the-art methods.
- Abstract(参考訳): 文脈情報は意味セグメンテーションに強力であることが示されている。
本研究では,文脈情報とチャネルコンテキスト情報を対話的に探索し,意味的セグメンテーションのための意味的コンテキストを検出する,新しいコンテキストベースタンデムネットワーク(CTNet)を提案する。
具体的には、空間文脈モジュール(SCM)を用いて、画素とカテゴリの相関関係を探索することにより、画素間の空間文脈依存性を明らかにする。
一方、チャネル間の長期的な意味依存をモデル化し、意味的特徴マップやクラス固有の特徴を含む意味的特徴を学ぶために、チャネルコンテキストモジュール(ccm)が導入された。
学習した意味的特徴は、SCMの学習を導くための事前知識として利用され、SCMがより正確な長距離空間依存を得ることを可能にする。
最後に、セマンティックセグメンテーションのための学習表現の性能をさらに向上させるために、2つのコンテキストモジュールの結果を適応的に統合し、より良い結果を得る。
大規模な実験は、PASCAL-Context、ADE20K、PASCAL VOC2012の3つの広く使われているデータセットで行われている。
その結果,提案手法との比較により,提案手法の有効性が示された。
関連論文リスト
- Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Weakly-supervised Semantic Segmentation via Dual-stream Contrastive Learning of Cross-image Contextual Information [10.77139542242678]
弱教師付きセマンティックセグメンテーション(WSSS)は、画像レベルのタグのみを用いてセマンティックセグメンテーションモデルを学習することを目的としている。
現在のWSSS手法のほとんどは、価値ある画像間情報(セマンティックワイド)を無視しながら、限られた単一画像(ピクセルワイド)情報に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-08T09:35:26Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Context-Aware Interaction Network for RGB-T Semantic Segmentation [12.91377211747192]
RGB-Tセマンティックセグメンテーションは自律走行シーン理解の鍵となる手法である。
補助的なタスクとグローバルなコンテキストを活用するためのコンテキスト認識インタラクションネットワーク(CAINet)を提案する。
提案したCAINetは、ベンチマークデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-01-03T08:49:29Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - Regional Semantic Contrast and Aggregation for Weakly Supervised
Semantic Segmentation [25.231470587575238]
本稿では,意味的セグメンテーションを学習するための地域意味的コントラストとアグリゲーション(RCA)を提案する。
RCAは、訓練データに現れる多種多様なオブジェクトパターンを格納する地域記憶バンクを備えている。
RCAは、きめ細かいセマンティック理解の強い能力を獲得し、最終的には2つの人気のあるベンチマークで新しい最先端の結果を確立する。
論文 参考訳(メタデータ) (2022-03-17T23:29:03Z) - CRIS: CLIP-Driven Referring Image Segmentation [71.56466057776086]
エンドツーエンドのCLIP駆動参照画像フレームワーク(CRIS)を提案する。
CRISは、テキストとピクセルのアライメントを達成するために、視覚言語によるデコーディングとコントラスト学習に頼っている。
提案するフレームワークは, 後処理を伴わずに, 最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-11-30T07:29:08Z) - DCANet: Dense Context-Aware Network for Semantic Segmentation [4.960604671885823]
ローカル詳細情報をグローバルな依存関係と適応的に統合する新しいモジュールであるContext-Aware (DCA) モジュールを提案する。
コンテキスト関係によって駆動されるDCAモジュールは、コンテキスト情報の集約により、より強力な機能を生成することができる。
3つの挑戦的なデータセットに関する広範な実験により、私たちのアプローチの有望なパフォーマンスを実証しています。
論文 参考訳(メタデータ) (2021-04-06T14:12:22Z) - Referring Image Segmentation via Cross-Modal Progressive Comprehension [94.70482302324704]
画像セグメンテーションの参照は、自然言語表現で与えられた記述によく一致するエンティティの前景マスクをセグメンテーションすることを目的としている。
従来のアプローチでは、暗黙的な特徴相互作用と視覚的モダリティと言語的モダリティの融合を用いてこの問題に対処していた。
本稿では,この課題に効果的に対応するために,Cross-Modal Progressive (CMPC) モジュールと Text-Guided Feature Exchange (TGFE) モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-01T16:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。