論文の概要: Sharp U-Net: Depthwise Convolutional Network for Biomedical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2107.12461v1
- Date: Mon, 26 Jul 2021 20:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:34:14.000423
- Title: Sharp U-Net: Depthwise Convolutional Network for Biomedical Image
Segmentation
- Title(参考訳): Sharp U-Net: バイオメディカルイメージセグメンテーションのためのDepthwise Convolutional Network
- Authors: Hasib Zunair and A. Ben Hamza
- Abstract要約: U-Netはバイオメディカルイメージセグメンテーションに有効であることが証明されている。
我々は,シャープU-Netと呼ばれる,シンプルで効果的なエンコーダ・デコーダ完全畳み込み型ネットワークアーキテクチャを提案する。
実験の結果,提案したシャープU-Netモデルは,2進および多進のセグメンテーションタスクにおいて,最新の最先端ベースラインより一貫して優れているか,あるいは一致していることがわかった。
- 参考スコア(独自算出の注目度): 1.1501261942096426
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The U-Net architecture, built upon the fully convolutional network, has
proven to be effective in biomedical image segmentation. However, U-Net applies
skip connections to merge semantically different low- and high-level
convolutional features, resulting in not only blurred feature maps, but also
over- and under-segmented target regions. To address these limitations, we
propose a simple, yet effective end-to-end depthwise encoder-decoder fully
convolutional network architecture, called Sharp U-Net, for binary and
multi-class biomedical image segmentation. The key rationale of Sharp U-Net is
that instead of applying a plain skip connection, a depthwise convolution of
the encoder feature map with a sharpening kernel filter is employed prior to
merging the encoder and decoder features, thereby producing a sharpened
intermediate feature map of the same size as the encoder map. Using this
sharpening filter layer, we are able to not only fuse semantically less
dissimilar features, but also to smooth out artifacts throughout the network
layers during the early stages of training. Our extensive experiments on six
datasets show that the proposed Sharp U-Net model consistently outperforms or
matches the recent state-of-the-art baselines in both binary and multi-class
segmentation tasks, while adding no extra learnable parameters. Furthermore,
Sharp U-Net outperforms baselines that have more than three times the number of
learnable parameters.
- Abstract(参考訳): 完全な畳み込みネットワーク上に構築されたU-Netアーキテクチャは、バイオメディカルイメージセグメンテーションに有効であることが証明されている。
しかし、U-Netは意味的に異なる低レベルと高レベルの畳み込み機能をマージするためにスキップ接続を適用し、その結果、ぼやけた特徴マップだけでなく、過度に区切られたターゲット領域も実現した。
これらの制限に対処するため,我々は,二進法および多クラス生物医学的画像分割のためのシャープu-netと呼ばれる完全畳み込み型ネットワークアーキテクチャを提案する。
シャープu-netの重要な根拠は、プレーンスキップ接続を適用する代わりに、エンコーダとデコーダの特徴をマージする前に、シャープニングカーネルフィルタによるエンコーダ特徴マップの深さ方向の畳み込みを用い、エンコーダマップと同じ大きさのシャープ化中間特徴マップを生成することである。
このシャープニングフィルタ層を使用することで、意味的に類似しない特徴を融合できるだけでなく、トレーニングの初期段階でネットワーク層全体のアーティファクトをスムーズに除去することができます。
6つのデータセットに対する広範な実験により、提案したSharp U-Netモデルは、バイナリとマルチクラスのセグメンテーションタスクにおいて、最新の最先端ベースラインを一貫して上回るか、あるいは一致し、さらに学習可能なパラメータを追加しないことが示された。
さらに、Sharp U-Netは学習可能なパラメータの3倍以上のベースラインを上回ります。
関連論文リスト
- EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation [4.777011444412729]
We propose a light-weight end-to-end segmentation framework based on multi-task learning, called Edge Attention autoencoder Network (EAA-Net)。
提案手法は,クラス間特徴の抽出にセグメンテーションネットワークを利用するだけでなく,フォアグラウンド内でのクラス内特徴の抽出にも再構成ネットワークを適用する。
実験結果から,医用画像分割作業において,本手法が良好に機能することが確認された。
論文 参考訳(メタデータ) (2022-08-19T07:42:55Z) - FPS-Net: A Convolutional Fusion Network for Large-Scale LiDAR Point
Cloud Segmentation [30.736361776703568]
LiDARポイントクラウドに基づくシーン理解は、自動運転車が安全に運転するのに不可欠なタスクです。
既存のほとんどのメソッドは、情報容量を増やすために、画像チャネルとして異なるポイント属性/モダリティを積み重ねる。
fps-netは,最適なポイントクラウドセグメンテーションのために,投影画像チャネル間の一意性と不一致を生かす畳み込み型融合ネットワークである。
論文 参考訳(メタデータ) (2021-03-01T04:08:28Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - MACU-Net for Semantic Segmentation of Fine-Resolution Remotely Sensed
Images [11.047174552053626]
MACU-Netは、マルチスケールのスキップ接続と非対称畳み込みベースのU-Netで、微細解像度のリモートセンシング画像を提供する。
本設計では,(1)低レベル・高レベルの特徴写像に含まれる意味的特徴と,(2)非対称な畳み込みブロックは,標準畳み込み層の特徴表現と特徴抽出能力を強化する。
2つのリモートセンシングデータセットで行った実験では、提案したMACU-NetがU-Net、U-NetPPL、U-Net 3+、その他のベンチマークアプローチを超越していることが示されている。
論文 参考訳(メタデータ) (2020-07-26T08:56:47Z) - Beyond Single Stage Encoder-Decoder Networks: Deep Decoders for Semantic
Image Segmentation [56.44853893149365]
セマンティックセグメンテーションのための単一エンコーダ-デコーダ手法は、セマンティックセグメンテーションの品質とレイヤー数あたりの効率の観点からピークに達している。
そこで本研究では,より多くの情報コンテンツを取得するために,浅層ネットワークの集合を用いたデコーダに基づく新しいアーキテクチャを提案する。
アーキテクチャをさらに改善するために,ネットワークの注目度を高めるために,クラスの再バランスを目的とした重み関数を導入する。
論文 参考訳(メタデータ) (2020-07-19T18:44:34Z) - Medical Image Segmentation Using a U-Net type of Architecture [0.0]
我々は、U-Netのアーキテクチャとボトルネック層における教師付きトレーニング戦略を組み合わせることで、元のU-Netアーキテクチャと同等の結果が得られると論じる。
我々は,U-Netのエンコーダブランチのボトルネックに対して,完全に教師付きFC層に基づくピクセルワイズロスを導入する。
2層ベースのFCサブネットは、より多くのセマンティック情報を含むようにボトルネック表現をトレーニングし、デコーダ層が最終的なセグメンテーションマップを予測するために使用する。
論文 参考訳(メタデータ) (2020-05-11T16:10:18Z) - Temporally Distributed Networks for Fast Video Semantic Segmentation [64.5330491940425]
TDNetは、高速かつ正確なビデオセマンティックセグメンテーションのために設計された時間分散ネットワークである。
我々は,深層CNNの特定の高層層から抽出した特徴を,より浅いサブネットワークから抽出した特徴の合成により近似することができることを観察した。
Cityscapes, CamVid, NYUD-v2 の実験により,本手法が高速かつ低レイテンシで最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:43:32Z) - A New Multiple Max-pooling Integration Module and Cross Multiscale
Deconvolution Network Based on Image Semantic Segmentation [7.427799203626843]
本稿では,MC-Netと呼ばれる医用画像分割のための深部畳み込みネットワークモデルを提案する。
エンコーダのネットワーク構造では、従来の単一チャネルの畳み込みではなく、マルチスケールの畳み込みを用いる。
論文 参考訳(メタデータ) (2020-03-25T04:27:01Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - A "Network Pruning Network" Approach to Deep Model Compression [62.68120664998911]
マルチタスクネットワークを用いた深部モデル圧縮のためのフィルタプルーニング手法を提案する。
我々のアプローチは、プレナーネットワークを学習して、事前訓練されたターゲットネットワークを訓練することに基づいている。
提案手法によって生成された圧縮モデルは汎用的であり,特別なハードウェア/ソフトウェアのサポートは不要である。
論文 参考訳(メタデータ) (2020-01-15T20:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。