論文の概要: Progressively Normalized Self-Attention Network for Video Polyp
Segmentation
- arxiv url: http://arxiv.org/abs/2105.08468v1
- Date: Tue, 18 May 2021 12:20:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 19:42:13.821178
- Title: Progressively Normalized Self-Attention Network for Video Polyp
Segmentation
- Title(参考訳): ビデオポリープセグメンテーションのためのプログレッシブノーマライズドセルフアテンションネットワーク
- Authors: Ge-Peng Ji, Yu-Cheng Chou, Deng-Ping Fan, Geng Chen, Huazhu Fu, Debesh
Jha, and Ling Shao
- Abstract要約: 本稿では,ポリプビデオから表現を効率よく学習する新しい PNS-Net (Progressively Normalized Self-attention Network) を提案する。
当社のPNS-Netは,再帰性とCNNを完全に装備する,基本的正規化自己注意ブロックのみをベースとしています。
挑戦的なデータセットの実験は、提案されたNS-Netが最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 88.53757948857196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing video polyp segmentation (VPS) models typically employ convolutional
neural networks (CNNs) to extract features. However, due to their limited
receptive fields, CNNs can not fully exploit the global temporal and spatial
information in successive video frames, resulting in false-positive
segmentation results. In this paper, we propose the novel PNS-Net
(Progressively Normalized Self-attention Network), which can efficiently learn
representations from polyp videos with real-time speed (~140fps) on a single
RTX 2080 GPU and no post-processing. Our PNS-Net is based solely on a basic
normalized self-attention block, equipping with recurrence and CNNs entirely.
Experiments on challenging VPS datasets demonstrate that the proposed PNS-Net
achieves state-of-the-art performance. We also conduct extensive experiments to
study the effectiveness of the channel split, soft-attention, and progressive
learning strategy. We find that our PNS-Net works well under different
settings, making it a promising solution to the VPS task.
- Abstract(参考訳): 既存のビデオポリプセグメンテーション(VPS)モデルは、通常、特徴を抽出するために畳み込みニューラルネットワーク(CNN)を使用する。
しかし、cnnは、その限られた受容領域のため、連続するビデオフレームの全体的時間的および空間的情報を十分に活用できないため、偽陽性のセグメンテーション結果が得られる。
本稿では,RTX 2080 GPU上でのリアルタイム速度 (~140fps) のポリプビデオから表現を効率よく学習し,後処理を行わない新しい PNS-Net (Progressively Normalized Self-attention Network) を提案する。
当社のPNS-Netは,再帰性とCNNを完全に装備する,基本的正規化自己注意ブロックのみをベースとしています。
VPSデータセットに挑戦する実験は、提案されたNS-Netが最先端のパフォーマンスを達成することを示す。
また,チャネル分割,ソフトアテンション,プログレッシブ学習戦略の有効性を検討するために,広範囲な実験を行った。
PNS-Netは、異なる設定でうまく機能し、VPSタスクに対する有望なソリューションになります。
関連論文リスト
- Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - Spiking Two-Stream Methods with Unsupervised STDP-based Learning for
Action Recognition [1.9981375888949475]
ディープ畳み込みニューラルネットワーク(Deep Convolutional Neural Networks, CNN)は、現在、ビデオ分析のための最先端の手法である。
我々は、制御されていないスパイクタイミング依存塑性(STDP)ルールで訓練された畳み込みスパイキングニューラルネットワーク(CSNN)を用いて行動分類を行う。
本研究では,2ストリームCSNNが,限られたトレーニングデータを用いてもビデオから情報を抽出できることを示す。
論文 参考訳(メタデータ) (2023-06-23T20:54:44Z) - Regularization of polynomial networks for image recognition [78.4786845859205]
PN(Polynomial Networks)は、将来性があり、解釈可能性も向上した代替手法として登場した。
6つのベンチマークでResNetのパフォーマンスに到達できるPNのクラスを紹介します。
論文 参考訳(メタデータ) (2023-03-24T10:05:22Z) - Lightweight Real-time Semantic Segmentation Network with Efficient
Transformer and CNN [34.020978009518245]
LETNetと呼ばれる軽量なリアルタイムセマンティックセグメンテーションネットワークを提案する。
LETNetは、U字型のCNNとTransformerをカプセル埋め込みスタイルで効果的に組み合わせ、それぞれの欠陥を補う。
挑戦的なデータセットで実施された実験は、LETNetが精度と効率のバランスにおいて優れたパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-02-21T07:16:53Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Video Polyp Segmentation: A Deep Learning Perspective [97.70996418522748]
本稿では,第1回総合ビデオポリプセグメンテーション(VPS)研究について紹介する。
まず、有名なSUNデータセットから158,690フレームを含む、SUN-SEGという高品質なフレーム単位のVPSデータセットを紹介します。
また,グローバルエンコーダ,ローカルエンコーダ,正規化自己保持ブロックからなる,シンプルだが効率的なベースラインを設計する。
論文 参考訳(メタデータ) (2022-03-27T12:40:10Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Directional Deep Embedding and Appearance Learning for Fast Video Object
Segmentation [11.10636117512819]
本稿では,オンラインファインチューニングを不要とした指向性深層埋め込みとYouTube外見学習(DEmbed)手法を提案する。
本手法は,オンラインファインチューニングを使わずに最先端のVOS性能を実現する。
論文 参考訳(メタデータ) (2020-02-17T01:51:57Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。