論文の概要: Encoding feature supervised UNet++: Redesigning Supervision for liver
and tumor segmentation
- arxiv url: http://arxiv.org/abs/2211.08146v1
- Date: Tue, 15 Nov 2022 13:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 14:18:24.401398
- Title: Encoding feature supervised UNet++: Redesigning Supervision for liver
and tumor segmentation
- Title(参考訳): 肝と腫瘍の分節の監督を再設計するunet++のエンコーディング機能
- Authors: Jiahao Cui, Ruoxin Xiao (co-first author), Shiyuan Fang, Minnan Pei,
Yixuan Yu
- Abstract要約: 本稿では, UNet++(ES-UNet++)を教師する符号化機能を提案し, 肝臓と腫瘍のセグメンテーションに応用する。
ES-UNet++ はデータセット LiTS で評価され、肝セグメンテーションは95.6%、腫瘍セグメンテーションは67.4%である。
- 参考スコア(独自算出の注目度): 0.6299766708197883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Liver tumor segmentation in CT images is a critical step in the diagnosis,
surgical planning and postoperative evaluation of liver disease. An automatic
liver and tumor segmentation method can greatly relieve physicians of the heavy
workload of examining CT images and better improve the accuracy of diagnosis.
In the last few decades, many modifications based on U-Net model have been
proposed in the literature. However, there are relatively few improvements for
the advanced UNet++ model. In our paper, we propose an encoding feature
supervised UNet++(ES-UNet++) and apply it to the liver and tumor segmentation.
ES-UNet++ consists of an encoding UNet++ and a segmentation UNet++. The
well-trained encoding UNet++ can extract the encoding features of label map
which are used to additionally supervise the segmentation UNet++. By adding
supervision to the each encoder of segmentation UNet++, U-Nets of different
depths that constitute UNet++ outperform the original version by average 5.7%
in dice score and the overall dice score is thus improved by 2.1%. ES-UNet++ is
evaluated with dataset LiTS, achieving 95.6% for liver segmentation and 67.4%
for tumor segmentation in dice score. In this paper, we also concluded some
valuable properties of ES-UNet++ by conducting comparative anaylsis between
ES-UNet++ and UNet++:(1) encoding feature supervision can accelerate the
convergence of the model.(2) encoding feature supervision enhances the effect
of model pruning by achieving huge speedup while providing pruned models with
fairly good performance.
- Abstract(参考訳): CT画像における肝腫瘍の分節化は,肝疾患の診断,手術計画,術後評価において重要なステップである。
自動肝・腫瘍分離法は、CT画像検査の重い作業量の医師を大幅に軽減し、診断精度を向上することができる。
過去数十年間、U-Netモデルに基づく多くの修正が文献で提案されてきた。
しかし、先進的なUNet++モデルに対する改善は比較的少ない。
本稿では,UNet++(ES-UNet++)を教師する符号化機能を提案し,それを肝臓と腫瘍のセグメンテーションに適用する。
ES-UNet++はエンコードUNet++とセグメンテーションUNet++で構成される。
十分に訓練された符号化UNet++は、セグメンテーションUNet++を監督するために使われるラベルマップの符号化機能を抽出することができる。
unet++のセグメンテーションの各エンコーダに監督を追加することで、unet++を構成する異なる深さのu-netは、diceスコアで平均5.7%、diceスコア全体の2.1%向上する。
ES-UNet++ はデータセット LiTS で評価され、肝セグメンテーションは95.6%、腫瘍セグメンテーションは67.4%である。
本稿では,ES-UNet++ と UNet++ の比較分析を行い,ES-UNet++ の有意義な特性について述べる。
2) 符号化機能向上は, プルーニングモデルに優れた性能を持たせながら, 大幅な高速化を実現し, モデルプルーニングの効果を高める。
関連論文リスト
- TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - SEDNet: Shallow Encoder-Decoder Network for Brain Tumor Segmentation [0.0]
本稿では,SEDNetと呼ばれる新しい浅層エンコーダとデコーダネットワークを含む腫瘍セグメンテーションフレームワークを提案する。
SEDNetのハイライトは、階層的畳み込みダウンサンプリングにおける十分さと、コスト効率が高く効果的な脳腫瘍セマンティックセグメンテーションのための選択的スキップメカニズムである。
SEDNet(X)は、約130万のパラメータと、最先端のSEDNet(X)と比較すると、リアルタイム臨床診断において計算的に効率的であることが示されている。
論文 参考訳(メタデータ) (2024-01-24T11:57:25Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Multi Kernel Positional Embedding ConvNeXt for Polyp Segmentation [7.31341312596412]
本稿では,ConvNeXtバックボーンとMulti Kernel Positional Embeddingブロックで構成される新しいフレームワークを提案する。
我々のモデルは,Kvasir-SEGデータセット上でのDice係数0.8818とIOUスコア0.8163を達成する。
論文 参考訳(メタデータ) (2023-01-17T03:12:57Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - SegNeXt: Rethinking Convolutional Attention Design for Semantic
Segmentation [100.89770978711464]
セマンティックセグメンテーションのための単純な畳み込みネットワークアーキテクチャであるSegNeXtを提案する。
コンボリューションアテンションは、トランスフォーマーの自己認識メカニズムよりも、文脈情報をエンコードするより効率的で効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-09-18T14:33:49Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - D2A U-Net: Automatic Segmentation of COVID-19 Lesions from CT Slices
with Dilated Convolution and Dual Attention Mechanism [9.84838467721235]
拡張型コンボリューションと新しいデュアルアテンション機構に基づくCTスライスにおけるCOVID-19病変セグメンテーションのための拡張型デュアルアテンションU-Net(D2A U-Net)を提案する。
以上の結果から,拡張畳み込みと二重注意機構を導入することにより,偽陽性の数が大幅に減少することが示唆された。
論文 参考訳(メタデータ) (2021-02-10T01:21:59Z) - Automatic Liver Segmentation from CT Images Using Deep Learning
Algorithms: A Comparative Study [0.0]
本稿では,Liverセグメンテーションのための最も効率的なDLアーキテクチャを提案する。
完全自動肝セグメンテーションのための最も効率的かつ正確なDLアーキテクチャを明らかにすることを目的としている。
その結果,DLアルゴリズムはDICOM画像からの臓器分割を高精度に自動化できることが判明した。
論文 参考訳(メタデータ) (2021-01-25T10:05:46Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。