論文の概要: Multi-Layer Feature Fusion with Cross-Channel Attention-Based U-Net for Kidney Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2410.15472v2
- Date: Tue, 22 Oct 2024 02:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:30:44.156739
- Title: Multi-Layer Feature Fusion with Cross-Channel Attention-Based U-Net for Kidney Tumor Segmentation
- Title(参考訳): 腎腫瘍分節に対するクロスチャネルアテンションベースU-Netを用いた多層機能融合
- Authors: Fnu Neha, Arvind K. Bansal,
- Abstract要約: U-Netベースのディープラーニング技術は、自動化された医用画像セグメンテーションのための有望なアプローチとして登場しつつある。
腎腫瘍の診断のためのCTスキャン画像のエンドツーエンド自動セマンティックセマンティックセグメンテーションのための改良されたU-Netモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Renal tumors, especially renal cell carcinoma (RCC), show significant heterogeneity, posing challenges for diagnosis using radiology images such as MRI, echocardiograms, and CT scans. U-Net based deep learning techniques are emerging as a promising approach for automated medical image segmentation for minimally invasive diagnosis of renal tumors. However, current techniques need further improvements in accuracy to become clinically useful to radiologists. In this study, we present an improved U-Net based model for end-to-end automated semantic segmentation of CT scan images to identify renal tumors. The model uses residual connections across convolution layers, integrates a multi-layer feature fusion (MFF) and cross-channel attention (CCA) within encoder blocks, and incorporates skip connections augmented with additional information derived using MFF and CCA. We evaluated our model on the KiTS19 dataset, which contains data from 210 patients. For kidney segmentation, our model achieves a Dice Similarity Coefficient (DSC) of 0.97 and a Jaccard index (JI) of 0.95. For renal tumor segmentation, our model achieves a DSC of 0.96 and a JI of 0.91. Based on a comparison of available DSC scores, our model outperforms the current leading models.
- Abstract(参考訳): 腎腫瘍,特に腎細胞癌(RCC)は,MRI,心エコー,CT検査などの放射線画像を用いて診断する上での課題である。
U-Netベースのディープラーニング技術は、腎腫瘍の最小侵襲診断のための自動化された医療画像セグメンテーションのための有望なアプローチとして現れつつある。
しかし、現在の技術は、放射線科医にとって臨床的に有用になるためには、さらなる精度の向上が必要である。
本研究では, 腎腫瘍を同定するために, CTスキャン画像のエンドツーエンド自動セマンティックセマンティックセグメンテーションのための改良されたU-Netモデルを提案する。
このモデルは畳み込み層間の残差接続を使用し、エンコーダブロック内にマルチ層機能融合(MFF)とクロスチャネルアテンション(CCA)を統合し、MFFとCCAから派生した追加情報を付加したスキップ接続を組み込む。
210名の患者から得られたデータを含むKiTS19データセットを用いて,本モデルを評価した。
腎セグメンテーションでは, Dice similarity Coefficient (DSC) が0.97で, Jaccard index (JI) が0.95である。
腎腫瘍切除では, DSCが0.96, JIが0.91であった。
利用可能なDSCスコアを比較することで、我々のモデルは現在の先行モデルよりも優れています。
関連論文リスト
- KaLDeX: Kalman Filter based Linear Deformable Cross Attention for Retina Vessel Segmentation [46.57880203321858]
カルマンフィルタを用いた線形変形型クロスアテンション(LDCA)モジュールを用いた血管セグメンテーションのための新しいネットワーク(KaLDeX)を提案する。
我々のアプローチは、カルマンフィルタ(KF)ベースの線形変形可能な畳み込み(LD)とクロスアテンション(CA)モジュールの2つの重要なコンポーネントに基づいている。
提案手法は,網膜基底画像データセット(DRIVE,CHASE_BD1,STARE)とOCTA-500データセットの3mm,6mmを用いて評価した。
論文 参考訳(メタデータ) (2024-10-28T16:00:42Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MRSegmentator: Robust Multi-Modality Segmentation of 40 Classes in MRI and CT Sequences [4.000329151950926]
このモデルは、英国バイオバンクの1200個の手動のMRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確に定義された臓器のセグメンテーションにおいて高い精度を示し、Dice similarity Coefficient(DSC)スコアは左右の肺では0.97、心臓では0.95であった。
また、肝臓 (DSC: 0.96) や腎臓 (DSC: 0.95 left, 0.95 right) のような臓器の頑健性も示し、より可変性を示した。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Deep Learning Framework with Multi-Head Dilated Encoders for Enhanced
Segmentation of Cervical Cancer on Multiparametric Magnetic Resonance Imaging [0.6597195879147557]
T2強調核磁気共鳴画像(MRI)と拡散強調画像(DWI)は頸部がん診断に欠かせない要素である。
拡張畳み込みと共有残差接続を多パラメータMRI画像の分離符号化に用いる新しいマルチヘッドフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T19:41:21Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Generative Models Improve Radiomics Performance in Different Tasks and
Different Datasets: An Experimental Study [3.040206021972938]
ラジオミクス(Radiomics)は、医用画像からの高スループット特徴抽出に焦点を当てた研究分野である。
生成モデルは、異なるタスクにおける低線量CTベースの放射能の性能を改善することができる。
論文 参考訳(メタデータ) (2021-09-06T06:01:21Z) - Weaving Attention U-net: A Novel Hybrid CNN and Attention-based Method
for Organs-at-risk Segmentation in Head and Neck CT Images [11.403827695550111]
我々は、畳み込みニューラルネットワーク(CNN)と自己認識機構を組み合わせた、新しいハイブリッドディープラーニングアプローチを開発した。
提案手法は10臓器対リスク(OAR)の基底真理によく似た輪郭を生成する。
新しいウィービング注意U-netは頭頸部CT画像のセグメンテーションに優れているか類似した性能を示した。
論文 参考訳(メタデータ) (2021-07-10T14:27:46Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。