論文の概要: 3D Medical Image Segmentation based on multi-scale MPU-Net
- arxiv url: http://arxiv.org/abs/2307.05799v2
- Date: Mon, 24 Jul 2023 19:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 20:21:10.957669
- Title: 3D Medical Image Segmentation based on multi-scale MPU-Net
- Title(参考訳): マルチスケールmpu-netによる3次元医用画像分割
- Authors: Zeqiu.Yu, Shuo.Han, Ziheng.Song
- Abstract要約: 本稿では,患者のCT画像に対する腫瘍分割モデルMPU-Netを提案する。
グローバルアテンション機構を備えたTransformerにインスパイアされている。
ベンチマークモデルであるU-Netと比較して、MPU-Netは優れたセグメンテーション結果を示す。
- 参考スコア(独自算出の注目度): 5.393743755706745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The high cure rate of cancer is inextricably linked to physicians' accuracy
in diagnosis and treatment, therefore a model that can accomplish
high-precision tumor segmentation has become a necessity in many applications
of the medical industry. It can effectively lower the rate of misdiagnosis
while considerably lessening the burden on clinicians. However, fully automated
target organ segmentation is problematic due to the irregular stereo structure
of 3D volume organs. As a basic model for this class of real applications,
U-Net excels. It can learn certain global and local features, but still lacks
the capacity to grasp spatial long-range relationships and contextual
information at multiple scales. This paper proposes a tumor segmentation model
MPU-Net for patient volume CT images, which is inspired by Transformer with a
global attention mechanism. By combining image serialization with the Position
Attention Module, the model attempts to comprehend deeper contextual
dependencies and accomplish precise positioning. Each layer of the decoder is
also equipped with a multi-scale module and a cross-attention mechanism. The
capability of feature extraction and integration at different levels has been
enhanced, and the hybrid loss function developed in this study can better
exploit high-resolution characteristic information. Moreover, the suggested
architecture is tested and evaluated on the Liver Tumor Segmentation Challenge
2017 (LiTS 2017) dataset. Compared with the benchmark model U-Net, MPU-Net
shows excellent segmentation results. The dice, accuracy, precision,
specificity, IOU, and MCC metrics for the best model segmentation results are
92.17%, 99.08%, 91.91%, 99.52%, 85.91%, and 91.74%, respectively. Outstanding
indicators in various aspects illustrate the exceptional performance of this
framework in automatic medical image segmentation.
- Abstract(参考訳): 癌治療率の上昇は医師の診断と治療の正確さと不可分に結びついているため,多くの医療分野において,高精度の腫瘍分画を実現できるモデルが求められている。
誤診率を効果的に下げると同時に、臨床医の負担を大幅に軽減することができる。
しかし, 3次元容積臓器の立体構造が不規則であるため, 全自動目標臓器分割が問題となる。
このクラスの実際のアプリケーションの基本モデルとして、U-Netは優れている。
グローバルな特徴や局所的な特徴を学習できるが、空間的長距離関係や文脈情報を複数のスケールで把握する能力は乏しい。
本稿では,大域的注意機構を持つ Transformer にインスパイアされたCT画像に対する腫瘍分割モデル MPU-Net を提案する。
画像のシリアライゼーションと位置注意モジュールを組み合わせることで、より深いコンテキスト依存を理解し、正確な位置決めを実現する。
デコーダの各レイヤには、マルチスケールモジュールとクロスアテンション機構も備えられている。
異なるレベルにおける特徴抽出と統合の能力が向上し,本研究で開発されたハイブリッド損失関数は,高分解能特性情報をより活用することができる。
さらに, 肝腫瘍分画チャレンジ2017(lits 2017)データセットを用いて, 提案アーキテクチャをテストし, 評価した。
ベンチマークモデルであるU-Netと比較して、MPU-Netは優れたセグメンテーション結果を示す。
最良のモデルのセグメンテーション結果に対するdice、精度、特異度、iou、mccの指標はそれぞれ92.17%、99.08%、91.91%、99.52%、85.91%、そして91.74%である。
さまざまな面で優れた指標は、このフレームワークが自動医療画像セグメンテーションにおける例外的な性能を示している。
関連論文リスト
- PMFSNet: Polarized Multi-scale Feature Self-attention Network For
Lightweight Medical Image Segmentation [6.134314911212846]
現在の最先端の医用画像分割法は精度を優先するが、計算要求の増大とより大きなモデルサイズを犠牲にすることも多い。
計算冗長性を避けつつグローバルな局所特徴処理のバランスをとる新しい医用画像分割モデルPMFSNetを提案する。
長期依存関係をキャプチャするために,アテンション機構に基づいたマルチスケール機能拡張モジュールであるPMFSブロックをプラグインとして組み込んでいる。
論文 参考訳(メタデータ) (2024-01-15T10:26:47Z) - AttResDU-Net: Medical Image Segmentation Using Attention-based Residual
Double U-Net [0.0]
本稿では,既存の医用画像セグメンテーションネットワークを改善したアテンションベース残留Double U-Netアーキテクチャ(AttResDU-Net)を提案する。
CVC clinic-DB、ISIC 2018、2018 Data Science Bowlの3つのデータセットで実験を行い、それぞれ94.35%、91.68%、92.45%のDice Coefficientスコアを得た。
論文 参考訳(メタデータ) (2023-06-25T14:28:08Z) - 3DSAM-adapter: Holistic Adaptation of SAM from 2D to 3D for Promptable
Medical Image Segmentation [56.50064853710202]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Large-Kernel Attention for 3D Medical Image Segmentation [14.76728117630242]
本稿では,多臓器分割と腫瘍分割を正確に行うために,新しいLKアテンションモジュールを提案する。
畳み込みと自己注意の利点は、局所的な文脈情報、長距離依存、チャネル適応を含むLKアテンションモジュールで組み合わせられる。
モジュールはまた、計算コストを最適化するためにLK畳み込みを分解し、U-NetのようなFCNに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-07-19T16:32:55Z) - Med-DANet: Dynamic Architecture Network for Efficient Medical Volumetric
Segmentation [13.158995287578316]
我々は,Med-DANetという動的アーキテクチャネットワークを提案し,効率的な精度と効率のトレードオフを実現する。
入力された3次元MRIボリュームのスライス毎に,提案手法は決定ネットワークによってスライス固有の決定を学習する。
提案手法は, 従来の3次元MRI脳腫瘍セグメント化法と比較して, 同等あるいは良好な結果が得られる。
論文 参考訳(メタデータ) (2022-06-14T03:25:58Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Does anatomical contextual information improve 3D U-Net based brain
tumor segmentation? [0.0]
脳解剖学からの文脈情報の追加は、U-Netベースの脳腫瘍のセグメンテーションを改善するか検討した。
対象者ごとのMRモダリティを減らし, セグメンテーション精度, モデルトレーニング時間, ドメインの一般化, 補償の観点から, 文脈情報の追加が与える影響について検討した。
論文 参考訳(メタデータ) (2020-10-26T09:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。