論文の概要: DPANET:Dual Pooling Attention Network for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2210.05437v1
- Date: Tue, 11 Oct 2022 13:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:20:48.130643
- Title: DPANET:Dual Pooling Attention Network for Semantic Segmentation
- Title(参考訳): DPANET:セマンティックセグメンテーションのための二重プール注意ネットワーク
- Authors: Dongwei Sun, Zhuolin Gao
- Abstract要約: 我々はDPANet(Dual Pool Attention Network)という軽量で柔軟なニューラルネットワークを提案する。
第1のコンポーネントは空間プールアテンションモジュールであり、コンテキスト特性を抽出するための簡単で強力な手法を定式化する。
第2のコンポーネントは、チャンネルプールアテンションモジュールである。それゆえ、このモジュールの目的は、全てのチャンネルの関係を構築し、異なるチャンネルセマンティック情報を選択的に高めるために、それらを取り除くことである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image segmentation is a historic and significant computer vision task. With
the help of deep learning techniques, image semantic segmentation has made
great progresses. Over recent years, based on guidance of attention mechanism
compared with CNN which overcomes the problems of lacking of interaction
between different channels, and effective capturing and aggregating contextual
information. However, the massive operations generated by the attention
mechanism lead to its extremely high complexity and high demand for GPU memory.
For this purpose, we propose a lightweight and flexible neural network named
Dual Pool Attention Network(DPANet). The most important is that all modules in
DPANet generate \textbf{0} parameters. The first component is spatial pool
attention module, we formulate an easy and powerful method densely to extract
contextual characteristics and reduce the amount of calculation and complexity
dramatically.Meanwhile, it demonstrates the power of even and large kernel
size. The second component is channel pool attention module. It is known that
the computation process of CNN incorporates the information of spatial and
channel dimensions. So, the aim of this module is stripping them out, in order
to construct relationship of all channels and heighten different channels
semantic information selectively. Moreover, we experiments on segmentation
datasets, which shows our method simple and effective with low parameters and
calculation complexity.
- Abstract(参考訳): イメージセグメンテーションは歴史的かつ重要なコンピュータビジョンタスクである。
ディープラーニング技術の助けを借りて、画像セマンティックセグメンテーションは大きな進歩を遂げた。
近年,異なるチャネル間の相互作用の欠如を克服し,文脈情報を効果的に収集・集約するCNNと比較して,注意機構のガイダンスに基づいている。
しかし、アテンションメカニズムによって生成される大規模な操作は、GPUメモリの非常に高い複雑さと高い要求をもたらす。
そこで本稿では,DPANet(Dual Pool Attention Network)という,軽量で柔軟なニューラルネットワークを提案する。
最も重要なことは、DPANetのすべてのモジュールが \textbf{0} パラメータを生成することである。
第1のコンポーネントは空間プールアテンションモジュールであり,文脈特性を抽出し,計算量と複雑性を劇的に削減するために,容易かつ強力な手法を密に定式化する。
第2のコンポーネントはチャネルプールアテンションモジュールである。
cnnの計算プロセスは、空間次元とチャネル次元の情報を取り込んでいることが知られている。
したがって、このモジュールの目的は、全てのチャンネルの関係を構築し、異なるチャンネルの意味情報を選択的に高めるために、それらを取り除くことである。
さらに,本手法を低パラメータと計算複雑性で簡便かつ効果的に示すセグメンテーションデータセットの実験を行った。
関連論文リスト
- Spatial-information Guided Adaptive Context-aware Network for Efficient
RGB-D Semantic Segmentation [9.198120596225968]
計算パラメータを削減し,アルゴリズムの堅牢性を保証する,効率的な軽量エンコーダデコーダネットワークを提案する。
また,NYUv2,SUN RGB-D,Cityscapesのデータセットを用いた実験結果から,本手法は最先端手法よりもセグメンテーション精度,推定時間,パラメータのトレードオフが良好であることが示された。
論文 参考訳(メタデータ) (2023-08-11T09:02:03Z) - SegNetr: Rethinking the local-global interactions and skip connections
in U-shaped networks [1.121518046252855]
U字型ネットワークは、シンプルで調整が容易な構造のため、医療画像セグメンテーションの分野を支配してきた。
我々は任意の段階で動的に局所的・局所的相互作用を行なえる新しいSegNetrブロックを導入する。
59%と76%のパラメータとGFLOPがバニラU-Netより少ない4つの主流医療画像セグメンテーションデータセットに対するSegNetrの有効性を検証した。
論文 参考訳(メタデータ) (2023-07-06T12:39:06Z) - Cross-CBAM: A Lightweight network for Scene Segmentation [2.064612766965483]
リアルタイムセマンティックセグメンテーションのための新しい軽量ネットワークであるCross-CBAMネットワークを提案する。
CityscapesデータセットとCamvidデータセットの実験では、73.4% mIoU、240.9FPS、77.2% mIoU、NVIDIA GTX 1080Tiで88.6FPSを達成した。
論文 参考訳(メタデータ) (2023-06-04T09:03:05Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - DMSANet: Dual Multi Scale Attention Network [0.0]
我々は,最高の性能を達成するだけでなく,既存のモデルに比べてパラメータも少ない新しいアテンションモジュールを提案する。
私たちの注目モジュールは、軽量な性質のため、他の畳み込みニューラルネットワークと容易に統合できます。
論文 参考訳(メタデータ) (2021-06-13T10:31:31Z) - An Attention-Fused Network for Semantic Segmentation of
Very-High-Resolution Remote Sensing Imagery [26.362854938949923]
注目融合ネットワーク(AFNet)という,新しい畳み込みニューラルネットワークアーキテクチャを提案する。
ISPRS Vaihingen 2DデータセットとISPRS Potsdam 2Dデータセットで、総精度91.7%、平均F1スコア90.96%の最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-10T06:23:27Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - Local Memory Attention for Fast Video Semantic Segmentation [157.7618884769969]
既存の単一フレームセマンティックセグメンテーションモデルをビデオセマンティックセグメンテーションパイプラインに変換する新しいニューラルネットワークモジュールを提案する。
我々のアプローチは過去のフレームにおける意味情報の豊富な表現をメモリモジュールに集約する。
都市景観におけるセグメンテーション性能は,それぞれ1.7%,2.1%改善し,erfnetの推論時間は1.5msに抑えられた。
論文 参考訳(メタデータ) (2021-01-05T18:57:09Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。