論文の概要: KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation
- arxiv url: http://arxiv.org/abs/2010.01663v2
- Date: Thu, 14 Oct 2021 20:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 04:07:51.730503
- Title: KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation
- Title(参考訳): kiu-net: バイオメディカルイメージとボリュームセグメンテーションのための超完全畳み込みアーキテクチャ
- Authors: Jeya Maria Jose Valanarasu, Vishwanath A. Sindagi, Ilker
Hacihaliloglu, Vishal M. Patel
- Abstract要約: トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
- 参考スコア(独自算出の注目度): 71.79090083883403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most methods for medical image segmentation use U-Net or its variants as they
have been successful in most of the applications. After a detailed analysis of
these "traditional" encoder-decoder based approaches, we observed that they
perform poorly in detecting smaller structures and are unable to segment
boundary regions precisely. This issue can be attributed to the increase in
receptive field size as we go deeper into the encoder. The extra focus on
learning high level features causes the U-Net based approaches to learn less
information about low-level features which are crucial for detecting small
structures. To overcome this issue, we propose using an overcomplete
convolutional architecture where we project our input image into a higher
dimension such that we constrain the receptive field from increasing in the
deep layers of the network. We design a new architecture for image
segmentation- KiU-Net which has two branches: (1) an overcomplete convolutional
network Kite-Net which learns to capture fine details and accurate edges of the
input, and (2) U-Net which learns high level features. Furthermore, we also
propose KiU-Net 3D which is a 3D convolutional architecture for volumetric
segmentation. We perform a detailed study of KiU-Net by performing experiments
on five different datasets covering various image modalities like ultrasound
(US), magnetic resonance imaging (MRI), computed tomography (CT), microscopic
and fundus images. The proposed method achieves a better performance as
compared to all the recent methods with an additional benefit of fewer
parameters and faster convergence. Additionally, we also demonstrate that the
extensions of KiU-Net based on residual blocks and dense blocks result in
further performance improvements. The implementation of KiU-Net can be found
here: https://github.com/jeya-maria-jose/KiU-Net-pytorch
- Abstract(参考訳): 医用画像セグメンテーションのほとんどの方法は、ほとんどのアプリケーションで成功したU-Netまたはその変種を使用する。
これらの「伝統的な」エンコーダ・デコーダに基づくアプローチを詳細に分析した結果、より小さな構造の検出に乏しく、境界領域を正確に分割できないことがわかった。
この問題の原因は、エンコーダに深く入り込むにつれて、受容的フィールドサイズが増加することである。
ハイレベルな特徴の学習に重点を置くことで、u-netベースのアプローチは、小さな構造を検出するのに不可欠な低レベルの特徴についてより少ない情報を学ぶことができる。
この問題を克服するために,我々は,入力画像を高次元に投影し,ネットワークの深層層における受容場の増加を抑制する,オーバーコンプリート畳み込みアーキテクチャを提案する。
画像分割のための新しいアーキテクチャをkiu-netで設計し,(1)入力の細部と正確なエッジをキャプチャする過完全畳み込みネットワークkite-net,(2)高レベル特徴を学習するu-netの2つのブランチを有する。
さらに,ボリュームセグメンテーションのための3次元畳み込みアーキテクチャであるKiU-Net 3Dを提案する。
超音波(US)、MRI(MRI)、CT(CT)、顕微鏡、眼底画像などの画像モダリティをカバーする5種類のデータセットを用いて、KiU-Netの詳細な研究を行う。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
さらに,残差ブロックと密閉ブロックに基づくkiu-netの拡張により,さらに性能が向上することを示す。
kiu-netの実装は以下のとおりである。 https://github.com/jeya-maria-jose/kiu-net-pytorch
関連論文リスト
- Small but Mighty: Enhancing 3D Point Clouds Semantic Segmentation with
U-Next Framework [7.9395601503353825]
我々は,ポイントクラウドセマンティックセマンティックセグメンテーション用に設計された,小さいが強力なフレームワークであるU-Nextを提案する。
U-Nextは複数のU-Net$L1$コーデックをネストして密に配置し、セマンティックギャップを最小限に抑えることで構築します。
S3DIS、Tronto3D、SensatUrbanの3つの大規模ベンチマークで実施された大規模な実験は、提案したU-Nextアーキテクチャの優位性と有効性を示している。
論文 参考訳(メタデータ) (2023-04-03T06:59:08Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - EVC-Net: Multi-scale V-Net with Conditional Random Fields for Brain
Extraction [3.4376560669160394]
EVC-Netは各エンコーダブロックに低スケール入力を追加する。
条件付きランダムフィールドは、ネットワークの出力を洗練するための追加ステップとしてここで再導入される。
その結果、限られたトレーニングリソースであっても、EVC-Netはより高いDice CoefficientとJaccard Indexを達成することがわかった。
論文 参考訳(メタデータ) (2022-06-06T18:21:21Z) - R2U++: A Multiscale Recurrent Residual U-Net with Dense Skip Connections
for Medical Image Segmentation [0.5735035463793008]
本稿では,新しいU-Netベースの医用画像セグメンテーションアーキテクチャR2U++を提案する。
提案したアーキテクチャでは, 単純な畳み込みバックボーンを, より深い再帰的な畳み込みブロックに置き換える。
エンコーダとデコーダのセマンティックギャップは、濃密なスキップ経路によって減少する。
論文 参考訳(メタデータ) (2022-06-03T19:42:44Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - BiO-Net: Learning Recurrent Bi-directional Connections for
Encoder-Decoder Architecture [82.64881585566825]
本稿では,新たな双方向O字型ネットワーク(BiO-Net)を提案する。
提案手法は,バニラU-Netおよび他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2020-07-01T05:07:49Z) - KiU-Net: Towards Accurate Segmentation of Biomedical Images using
Over-complete Representations [59.65174244047216]
本稿では,高次元にデータを投影するオーバーコンプリートアーキテクチャ(Ki-Net)を提案する。
このネットワークは、U-Netで拡張されると、小さな解剖学的ランドマークを分割する場合に大幅に改善される。
早期新生児の2次元超音波による脳解剖学的セグメント化の課題について検討した。
論文 参考訳(メタデータ) (2020-06-08T18:59:24Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - UNet 3+: A Full-Scale Connected UNet for Medical Image Segmentation [20.558512044987125]
提案するUNet 3+は,フルスケールのスキップ接続と深い監視機能を利用する。
提案手法は, 様々なスケールで現れる臓器に対して特に有用である。
論文 参考訳(メタデータ) (2020-04-19T08:05:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。