論文の概要: Hierarchical 3D Feature Learning for Pancreas Segmentation
- arxiv url: http://arxiv.org/abs/2109.01667v1
- Date: Fri, 3 Sep 2021 09:27:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 04:31:59.994674
- Title: Hierarchical 3D Feature Learning for Pancreas Segmentation
- Title(参考訳): 膵分節のための階層的3次元特徴学習
- Authors: Federica Proietto Salanitri, Giovanni Bellitto, Ismail Irmakci, Simone
Palazzo, Ulas Bagci, Concetto Spampinato
- Abstract要約: MRIとCTの両方から膵分画を自動化する3D完全畳み込み型深層ネットワークを提案する。
本モデルでは,Diceスコアが約88%と,既存のCT膵セグメンテーション法よりも優れていた。
さらなる制御実験により、達成された性能は、我々の3次元完全畳み込み深層ネットワークと階層的表現復号化の組み合わせによるものであることが示された。
- 参考スコア(独自算出の注目度): 11.588903060674344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel 3D fully convolutional deep network for automated pancreas
segmentation from both MRI and CT scans. More specifically, the proposed model
consists of a 3D encoder that learns to extract volume features at different
scales; features taken at different points of the encoder hierarchy are then
sent to multiple 3D decoders that individually predict intermediate
segmentation maps. Finally, all segmentation maps are combined to obtain a
unique detailed segmentation mask. We test our model on both CT and MRI imaging
data: the publicly available NIH Pancreas-CT dataset (consisting of 82
contrast-enhanced CTs) and a private MRI dataset (consisting of 40 MRI scans).
Experimental results show that our model outperforms existing methods on CT
pancreas segmentation, obtaining an average Dice score of about 88%, and yields
promising segmentation performance on a very challenging MRI data set (average
Dice score is about 77%). Additional control experiments demonstrate that the
achieved performance is due to the combination of our 3D fully-convolutional
deep network and the hierarchical representation decoding, thus substantiating
our architectural design.
- Abstract(参考訳): MRIとCTの両方から膵分画を自動化する3D完全畳み込み型深層ネットワークを提案する。
より具体的には、提案モデルは、異なるスケールでボリューム特徴を抽出することを学ぶ3Dエンコーダで構成されており、エンコーダ階層の異なるポイントで取られた特徴は、中間セグメンテーションマップを個別に予測する複数の3Dデコーダに送られる。
最後に、すべてのセグメンテーションマップを結合して、ユニークな詳細なセグメンテーションマスクを得る。
我々は,画像データとMRI画像データの両方を用いて,NIH Pancreas-CTデータセット(82個の造影CTからなる)とプライベートMRIデータセット(40個のMRIスキャンからなる)を検証した。
実験の結果,ct膵臓セグメンテーションの既存手法を上回り,平均88%のdiceスコアを得て,非常に困難なmriデータセット(平均diceスコア約77%)において有望なセグメンテーション性能が得られることがわかった。
さらなる制御実験により、達成された性能は、我々の3次元完全畳み込み深層ネットワークと階層的表現復号化の組み合わせによるものであることが示され、アーキテクチャ設計の裏付けとなる。
関連論文リスト
- Unified 3D MRI Representations via Sequence-Invariant Contrastive Learning [0.15749416770494706]
定量的MRI(qMRI)を利用したシーケンス不変な自己教師型フレームワークを提案する。
健常脳セグメンテーション(IXI)、脳梗塞セグメンテーション(ARC)、MRIによるデノイング実験は、ベースラインSSLアプローチよりも有意な増加を示した。
また,本モデルは,よりスケーラブルで臨床的に信頼性の高いボリューム分析の可能性を示した。
論文 参考訳(メタデータ) (2025-01-21T11:27:54Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - M3BUNet: Mobile Mean Max UNet for Pancreas Segmentation on CT-Scans [25.636974007788986]
我々は,M3BUNetを提案する。M3BUNetはMobileNetとU-Netニューラルネットワークの融合で,2段階に分けて膵CT像を段階的に分割する,新しい平均値(MM)アテンションを備える。
細かなセグメンテーションの段階では、ウェーブレット分解フィルタを用いてマルチインプット画像を作成することにより、膵のセグメンテーション性能が向上することがわかった。
提案手法は,最大89.53%のDice similarity Coefficient(DSC)値と最大81.16のIntersection Over Union(IOU)スコアをNIH pancreasデータセットで達成する。
論文 参考訳(メタデータ) (2024-01-18T23:10:08Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Med-DANet: Dynamic Architecture Network for Efficient Medical Volumetric
Segmentation [13.158995287578316]
我々は,Med-DANetという動的アーキテクチャネットワークを提案し,効率的な精度と効率のトレードオフを実現する。
入力された3次元MRIボリュームのスライス毎に,提案手法は決定ネットワークによってスライス固有の決定を学習する。
提案手法は, 従来の3次元MRI脳腫瘍セグメント化法と比較して, 同等あるいは良好な結果が得られる。
論文 参考訳(メタデータ) (2022-06-14T03:25:58Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Automatic Segmentation, Localization, and Identification of Vertebrae in
3D CT Images Using Cascaded Convolutional Neural Networks [22.572414102512358]
本稿では, 3次元CT画像における椎骨の自動分割, 局所化, 同定の方法を提案する。
提案手法は,すべてのタスクを仮定なしで単一のマルチステージフレームワークで処理する。
平均Diceスコアは96%,平均定位誤差は8.3mm,平均識別率は84%であった。
論文 参考訳(メタデータ) (2020-09-29T06:11:37Z) - Multi-modal segmentation of 3D brain scans using neural networks [0.0]
深部畳み込みニューラルネットワークは、3D MRI(MPRAGE, DWI, FLAIR)とCTスキャンのセグメンテーションのために訓練される。
セグメンテーションの質は、合計27の解剖学的構造に対してディース計量を用いて定量化される。
論文 参考訳(メタデータ) (2020-08-11T09:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。