論文の概要: Distance Guided Channel Weighting for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2004.12679v4
- Date: Fri, 13 May 2022 08:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 05:29:32.836842
- Title: Distance Guided Channel Weighting for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのための距離誘導チャネルウェイト
- Authors: Xuanyi Liu, Lanyun Zhu, Shiping Zhu, Li Luo
- Abstract要約: DGCW(Distance Guided Channel Weighting Module)について紹介する。
DGCWモジュールは、画素単位のコンテキスト抽出方法で構成される。
DGCWNet(Distance Guided Channel Weighting Network)を提案する。
- 参考スコア(独自算出の注目度): 4.10724123131976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have achieved great success in improving the performance of
multiple computer vision tasks by capturing features with a high channel number
utilizing deep neural networks. However, many channels of extracted features
are not discriminative and contain a lot of redundant information. In this
paper, we address above issue by introducing the Distance Guided Channel
Weighting (DGCW) Module. The DGCW module is constructed in a pixel-wise context
extraction manner, which enhances the discriminativeness of features by
weighting different channels of each pixel's feature vector when modeling its
relationship with other pixels. It can make full use of the high-discriminative
information while ignore the low-discriminative information containing in
feature maps, as well as capture the long-range dependencies. Furthermore, by
incorporating the DGCW module with a baseline segmentation network, we propose
the Distance Guided Channel Weighting Network (DGCWNet). We conduct extensive
experiments to demonstrate the effectiveness of DGCWNet. In particular, it
achieves 81.6% mIoU on Cityscapes with only fine annotated data for training,
and also gains satisfactory performance on another two semantic segmentation
datasets, i.e. Pascal Context and ADE20K. Code will be available soon at
https://github.com/LanyunZhu/DGCWNet.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワークを用いた高チャネル数で特徴をキャプチャすることで、複数のコンピュータビジョンタスクのパフォーマンス向上に成功している。
しかし、抽出された特徴のチャネルの多くは差別的ではなく、多くの冗長な情報を含んでいる。
本稿では,DGCW (Distance Guided Channel Weighting) モジュールを導入することで,この問題に対処する。
dgcwモジュールは、各画素の特徴ベクトルの異なるチャネルを重み付けて、他の画素との関係をモデル化することで特徴の識別性を高める、画素毎のコンテキスト抽出方式で構築されている。
特徴マップに含まれる低識別情報を無視しながら、高識別情報を完全に活用し、長距離依存性を捉えることができる。
さらに,ベースラインセグメンテーションネットワークにdgcwモジュールを組み込むことにより,dgcwnet( distance guided channel weighting network)を提案する。
DGCWNetの有効性を示す大規模な実験を行った。
特に、Cityscapesで81.6%のmIoUを達成し、トレーニング用の微妙なアノテートデータのみを処理し、Pascal ContextとADE20Kという2つのセマンティックセグメンテーションデータセットで満足なパフォーマンスを得る。
コードは近くhttps://github.com/lanyunzhu/dgcwnetで入手できる。
関連論文リスト
- DiffCut: Catalyzing Zero-Shot Semantic Segmentation with Diffusion Features and Recursive Normalized Cut [62.63481844384229]
ファンデーションモデルは、言語、ビジョン、マルチモーダルタスクなど、さまざまな領域にまたがる強力なツールとして登場した。
本稿では,拡散UNetエンコーダを基礎ビジョンエンコーダとして使用し,教師なしゼロショットセグメンテーション手法であるDiffCutを紹介する。
我々の研究は、拡散UNetエンコーダに埋め込まれた極めて正確なセマンティック知識を強調し、下流タスクの基盤ビジョンエンコーダとして機能する。
論文 参考訳(メタデータ) (2024-06-05T01:32:31Z) - Efficient Multi-Scale Attention Module with Cross-Spatial Learning [4.046170185945849]
効率的なマルチスケールアテンション(EMA)モジュールを提案する。
チャネルごとの情報保持と計算オーバーヘッドの低減に重点を置いている。
我々は画像分類と物体検出タスクについて広範囲にわたるアブレーション研究と実験を行った。
論文 参考訳(メタデータ) (2023-05-23T00:35:47Z) - DPANET:Dual Pooling Attention Network for Semantic Segmentation [0.0]
我々はDPANet(Dual Pool Attention Network)という軽量で柔軟なニューラルネットワークを提案する。
第1のコンポーネントは空間プールアテンションモジュールであり、コンテキスト特性を抽出するための簡単で強力な手法を定式化する。
第2のコンポーネントは、チャンネルプールアテンションモジュールである。それゆえ、このモジュールの目的は、全てのチャンネルの関係を構築し、異なるチャンネルセマンティック情報を選択的に高めるために、それらを取り除くことである。
論文 参考訳(メタデータ) (2022-10-11T13:29:33Z) - EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation [4.777011444412729]
We propose a light-weight end-to-end segmentation framework based on multi-task learning, called Edge Attention autoencoder Network (EAA-Net)。
提案手法は,クラス間特徴の抽出にセグメンテーションネットワークを利用するだけでなく,フォアグラウンド内でのクラス内特徴の抽出にも再構成ネットワークを適用する。
実験結果から,医用画像分割作業において,本手法が良好に機能することが確認された。
論文 参考訳(メタデータ) (2022-08-19T07:42:55Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - Channel-wise Knowledge Distillation for Dense Prediction [73.99057249472735]
本稿では,学生ネットワークと教師ネットワークのチャンネルワイズ機能について提案する。
様々なネットワーク構造を持つ3つのベンチマークにおいて、一貫して優れた性能を実現している。
論文 参考訳(メタデータ) (2020-11-26T12:00:38Z) - Multi-Attention-Network for Semantic Segmentation of Fine Resolution
Remote Sensing Images [10.835342317692884]
リモートセンシング画像におけるセマンティックセグメンテーションの精度は、ディープ畳み込みニューラルネットワークによって著しく向上した。
本稿では,これらの問題に対処するマルチアテンション・ネットワーク(MANet)を提案する。
線形複雑性を伴うカーネル注意の新たなアテンション機構が提案され,注目される計算負荷の低減が図られた。
論文 参考訳(メタデータ) (2020-09-03T09:08:02Z) - MACU-Net for Semantic Segmentation of Fine-Resolution Remotely Sensed
Images [11.047174552053626]
MACU-Netは、マルチスケールのスキップ接続と非対称畳み込みベースのU-Netで、微細解像度のリモートセンシング画像を提供する。
本設計では,(1)低レベル・高レベルの特徴写像に含まれる意味的特徴と,(2)非対称な畳み込みブロックは,標準畳み込み層の特徴表現と特徴抽出能力を強化する。
2つのリモートセンシングデータセットで行った実験では、提案したMACU-NetがU-Net、U-NetPPL、U-Net 3+、その他のベンチマークアプローチを超越していることが示されている。
論文 参考訳(メタデータ) (2020-07-26T08:56:47Z) - GSTO: Gated Scale-Transfer Operation for Multi-Scale Feature Learning in
Pixel Labeling [92.90448357454274]
本稿では,空間教師付き機能を他のスケールに適切に移行するためのGated Scale-Transfer Operation (GSTO)を提案する。
GSTOをHRNetにプラグインすることで、ピクセルラベリングの強力なバックボーンが得られます。
実験の結果,GSTOはマルチスケール機能アグリゲーションモジュールの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-05-27T13:46:58Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。