論文の概要: HCNet: Hierarchical Context Network for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2010.04962v2
- Date: Tue, 20 Oct 2020 03:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 23:22:29.156944
- Title: HCNet: Hierarchical Context Network for Semantic Segmentation
- Title(参考訳): HCNet: セマンティックセグメンテーションのための階層型コンテキストネットワーク
- Authors: Yanwen Chong, Congchong Nie, Yulong Tao, Xiaoshu Chen, Shaoming Pan
- Abstract要約: 本稿では,強い相関関係を持つ同質画素と弱い相関関係を持つ異質画素をモデル化する階層型コンテキストネットワークを提案する。
我々のアプローチでは、平均IoUは82.8%、全体的な精度は91.4%で、CityscapesとISPRS Vaihingenのデータセットは91.4%である。
- 参考スコア(独自算出の注目度): 6.4047628200011815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Global context information is vital in visual understanding problems,
especially in pixel-level semantic segmentation. The mainstream methods adopt
the self-attention mechanism to model global context information. However,
pixels belonging to different classes usually have weak feature correlation.
Modeling the global pixel-level correlation matrix indiscriminately is
extremely redundant in the self-attention mechanism. In order to solve the
above problem, we propose a hierarchical context network to differentially
model homogeneous pixels with strong correlations and heterogeneous pixels with
weak correlations. Specifically, we first propose a multi-scale guided
pre-segmentation module to divide the entire feature map into different
classed-based homogeneous regions. Within each homogeneous region, we design
the pixel context module to capture pixel-level correlations. Subsequently,
different from the self-attention mechanism that still models weak
heterogeneous correlations in a dense pixel-level manner, the region context
module is proposed to model sparse region-level dependencies using a unified
representation of each region. Through aggregating fine-grained pixel context
features and coarse-grained region context features, our proposed network can
not only hierarchically model global context information but also harvest
multi-granularity representations to more robustly identify multi-scale
objects. We evaluate our approach on Cityscapes and the ISPRS Vaihingen
dataset. Without Bells or Whistles, our approach realizes a mean IoU of 82.8%
and overall accuracy of 91.4% on Cityscapes and ISPRS Vaihingen test set,
achieving state-of-the-art results.
- Abstract(参考訳): グローバルコンテキスト情報は視覚理解問題、特にピクセルレベルの意味セグメンテーションにおいて不可欠である。
主流の手法は、グローバルな文脈情報をモデル化するための自己認識メカニズムを採用する。
しかし、異なるクラスに属する画素は通常、弱い特徴相関を持つ。
グローバルピクセルレベルの相関行列を無差別にモデル化することは、自己認識機構において極めて冗長である。
この問題を解決するために,強い相関を持つ等質画素と弱い相関を持つ不均質画素を微分モデル化する階層的コンテキストネットワークを提案する。
具体的には,まず,特徴マップ全体を異なるクラス単位の均質領域に分割するマルチスケール誘導型前セグメントモジュールを提案する。
各均一領域において,画素レベルの相関を捉えるために,画素コンテキストモジュールを設計する。
その後、高密度画素レベルの弱い不均一相関をモデルとする自己認識機構とは違い、領域コンテキストモジュールは各領域の統一表現を用いてスパース領域レベルの依存性をモデル化するために提案される。
細粒度画素コンテキスト特徴と粗粒度領域コンテキスト特徴を集約することにより,提案するネットワークは,グローバルコンテキスト情報を階層的にモデル化するだけでなく,複数の粒度表現を収集し,より堅牢にマルチスケールオブジェクトを識別できる。
我々は,Cityscapes と ISPRS Vaihingen データセットに対するアプローチを評価した。
Bells や Whistles がなければ、我々の手法は平均 82.8% の IoU と、Cityscapes と ISPRS Vaihingen テストセットで 91.4% の精度を実現し、最先端の結果を得た。
関連論文リスト
- Learning Invariant Inter-pixel Correlations for Superpixel Generation [12.605604620139497]
学習可能な特徴は、制約付き判別能力を示し、不満足なピクセルグループ化性能をもたらす。
本稿では,不変画素間相関と統計特性を選択的に分離するContentangle Superpixelアルゴリズムを提案する。
4つのベンチマークデータセットの実験結果は、既存の最先端手法に対するアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-28T09:46:56Z) - Keypoint-Augmented Self-Supervised Learning for Medical Image
Segmentation with Limited Annotation [21.203307064937142]
本稿では,短距離と長距離の両方の自己注意を保った表現を抽出するキーポイント拡張融合層を提案する。
特に,長距離空間の自己意識を学習する追加入力を組み込むことで,CNN機能マップを複数スケールで拡張する。
提案手法は,より堅牢な自己アテンションを生成することにより,既存のSSLメソッドよりも優れる。
論文 参考訳(メタデータ) (2023-10-02T22:31:30Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - A Unified Architecture of Semantic Segmentation and Hierarchical
Generative Adversarial Networks for Expression Manipulation [52.911307452212256]
セマンティックセグメンテーションと階層的GANの統一アーキテクチャを開発する。
我々のフレームワークのユニークな利点は、将来的なセマンティックセグメンテーションネットワーク条件を生成モデルに渡すことである。
我々は,AffectNetとRaFDの2つの難解な表情翻訳ベンチマークとセマンティックセグメンテーションベンチマークであるCelebAMask-HQについて評価を行った。
論文 参考訳(メタデータ) (2021-12-08T22:06:31Z) - Learning to Aggregate Multi-Scale Context for Instance Segmentation in
Remote Sensing Images [28.560068780733342]
特徴抽出のプロセスを改善するために,新しいコンテキスト集約ネットワーク(CATNet)を提案する。
提案モデルは,高密度特徴ピラミッドネットワーク(DenseFPN),空間コンテキストピラミッド(SCP),階層的関心抽出器(HRoIE)の3つの軽量プラグアンドプレイモジュールを利用する。
論文 参考訳(メタデータ) (2021-11-22T08:55:25Z) - An attention-driven hierarchical multi-scale representation for visual
recognition [3.3302293148249125]
畳み込みニューラルネットワーク(CNN)は、視覚内容の理解に革命をもたらした。
グラフ畳み込みネットワーク(GCN)を探索することにより,高レベルの長距離依存関係を捕捉する手法を提案する。
本手法は,細粒度と総称的な視覚的分類の両問題を解くのに極めて効果的である。
論文 参考訳(メタデータ) (2021-10-23T09:22:22Z) - Global Aggregation then Local Distribution for Scene Parsing [99.1095068574454]
提案手法は,エンドツーエンドのトレーニング可能なブロックとしてモジュール化され,既存のセマンティックセグメンテーションネットワークに容易に接続可能であることを示す。
私たちのアプローチでは、Cityscapes、ADE20K、Pascal Context、Camvid、COCO-stuffといった主要なセマンティックセグメンテーションベンチマークに基づいて、新しい最先端の技術を構築できます。
論文 参考訳(メタデータ) (2021-07-28T03:46:57Z) - Low Light Image Enhancement via Global and Local Context Modeling [164.85287246243956]
低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
論文 参考訳(メタデータ) (2021-01-04T09:40:54Z) - Superpixel Segmentation Based on Spatially Constrained Subspace
Clustering [57.76302397774641]
独立意味情報を持つ各代表領域を部分空間とみなし,部分空間クラスタリング問題としてスーパーピクセルセグメンテーションを定式化する。
従来のサブスペースクラスタリングとスーパーピクセルセグメンテーションの簡単な統合は,画素の空間相関のために効果的に機能しないことを示す。
本稿では,空間隣接画素に類似の属性を付加してスーパーピクセルにクラスタリング可能な,凸局所性制約付きサブスペースクラスタリングモデルを提案する。
論文 参考訳(メタデータ) (2020-12-11T06:18:36Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。