論文の概要: Multi-Layer Feature Fusion with Cross-Channel Attention-Based U-Net for Kidney Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2410.15472v1
- Date: Sun, 20 Oct 2024 19:02:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:21:50.215487
- Title: Multi-Layer Feature Fusion with Cross-Channel Attention-Based U-Net for Kidney Tumor Segmentation
- Title(参考訳): 腎腫瘍分節に対するクロスチャネルアテンションベースU-Netを用いた多層機能融合
- Authors: Fnu Neha, Arvind K. Bansal,
- Abstract要約: U-Netベースのディープラーニング技術は、自動化された医用画像セグメンテーションのための有望なアプローチとして登場しつつある。
腎腫瘍の診断のためのCTスキャン画像のエンドツーエンド自動セマンティックセマンティックセグメンテーションのための改良されたU-Netモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Renal tumors, especially renal cell carcinoma (RCC), show significant heterogeneity, posing challenges for diagnosis using radiology images such as MRI, echocardiograms, and CT scans. U-Net based deep learning techniques are emerging as a promising approach for automated medical image segmentation for minimally invasive diagnosis of renal tumors. However, current techniques need further improvements in accuracy to become clinically useful to radiologists. In this study, we present an improved U-Net based model for end-to-end automated semantic segmentation of CT scan images to identify renal tumors. The model uses residual connections across convolution layers, integrates a multi-layer feature fusion (MFF) and cross-channel attention (CCA) within encoder blocks, and incorporates skip connections augmented with additional information derived using MFF and CCA. We evaluated our model on the KiTS19 dataset, which contains data from 210 patients. For kidney segmentation, our model achieves a Dice Similarity Coefficient (DSC) of 0.97 and a Jaccard index (JI) of 0.95. For renal tumor segmentation, our model achieves a DSC of 0.96 and a JI of 0.91. Based on a comparison of available DSC scores, our model outperforms the current leading models.
- Abstract(参考訳): 腎腫瘍,特に腎細胞癌(RCC)は,MRI,心エコー,CT検査などの放射線画像を用いて診断する上での課題である。
U-Netベースのディープラーニング技術は、腎腫瘍の最小侵襲診断のための自動化された医療画像セグメンテーションのための有望なアプローチとして現れつつある。
しかし、現在の技術は、放射線科医にとって臨床的に有用になるためには、さらなる精度の向上が必要である。
本研究では, 腎腫瘍を同定するために, CTスキャン画像のエンドツーエンド自動セマンティックセマンティックセグメンテーションのための改良されたU-Netモデルを提案する。
このモデルは畳み込み層間の残差接続を使用し、エンコーダブロック内にマルチ層機能融合(MFF)とクロスチャネルアテンション(CCA)を統合し、MFFとCCAから派生した追加情報を付加したスキップ接続を組み込む。
210名の患者から得られたデータを含むKiTS19データセットを用いて,本モデルを評価した。
腎セグメンテーションでは, Dice similarity Coefficient (DSC) が0.97で, Jaccard index (JI) が0.95である。
腎腫瘍切除では, DSCが0.96, JIが0.91であった。
利用可能なDSCスコアを比較することで、我々のモデルは現在の先行モデルよりも優れています。
関連論文リスト
- TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MRSegmentator: Robust Multi-Modality Segmentation of 40 Classes in MRI and CT Sequences [4.000329151950926]
このモデルは、英国バイオバンクの1200個の手動のMRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確に定義された臓器のセグメンテーションにおいて高い精度を示し、Dice similarity Coefficient(DSC)スコアは左右の肺では0.97、心臓では0.95であった。
また、肝臓 (DSC: 0.96) や腎臓 (DSC: 0.95 left, 0.95 right) のような臓器の頑健性も示し、より可変性を示した。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Deep Learning Framework with Multi-Head Dilated Encoders for Enhanced
Segmentation of Cervical Cancer on Multiparametric Magnetic Resonance Imaging [0.6597195879147557]
T2強調核磁気共鳴画像(MRI)と拡散強調画像(DWI)は頸部がん診断に欠かせない要素である。
拡張畳み込みと共有残差接続を多パラメータMRI画像の分離符号化に用いる新しいマルチヘッドフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T19:41:21Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Generative Models Improve Radiomics Performance in Different Tasks and
Different Datasets: An Experimental Study [3.040206021972938]
ラジオミクス(Radiomics)は、医用画像からの高スループット特徴抽出に焦点を当てた研究分野である。
生成モデルは、異なるタスクにおける低線量CTベースの放射能の性能を改善することができる。
論文 参考訳(メタデータ) (2021-09-06T06:01:21Z) - Weaving Attention U-net: A Novel Hybrid CNN and Attention-based Method
for Organs-at-risk Segmentation in Head and Neck CT Images [11.403827695550111]
我々は、畳み込みニューラルネットワーク(CNN)と自己認識機構を組み合わせた、新しいハイブリッドディープラーニングアプローチを開発した。
提案手法は10臓器対リスク(OAR)の基底真理によく似た輪郭を生成する。
新しいウィービング注意U-netは頭頸部CT画像のセグメンテーションに優れているか類似した性能を示した。
論文 参考訳(メタデータ) (2021-07-10T14:27:46Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。