論文の概要: Attention Xception UNet (AXUNet): A Novel Combination of CNN and Self-Attention for Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2503.20446v1
- Date: Wed, 26 Mar 2025 11:22:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:24.421180
- Title: Attention Xception UNet (AXUNet): A Novel Combination of CNN and Self-Attention for Brain Tumor Segmentation
- Title(参考訳): Attention Xception UNet (AXUNet):脳腫瘍分離のための新しいCNNと自己注意の組み合わせ
- Authors: Farzan Moodi, Fereshteh Khodadadi Shoushtari, Gelareh Valizadeh, Dornaz Mazinani, Hanieh Mobarak Salari, Hamidreza Saligheh Rad,
- Abstract要約: 提案されたAttention Xception UNet (AXUNet)アーキテクチャは、Xceptionのバックボーンとドット生成自己保持モジュールを統合している。
AXUNetは全腫瘍(WT)および腫瘍コア(TC)領域で優れたDiceスコアを獲得し、WTは92.59、TCは86.81、ETは84.89を達成した。
- 参考スコア(独自算出の注目度): 2.9687381456164004
- License:
- Abstract: Accurate segmentation of glioma brain tumors is crucial for diagnosis and treatment planning. Deep learning techniques offer promising solutions, but optimal model architectures remain under investigation. We used the BraTS 2021 dataset, selecting T1 with contrast enhancement (T1CE), T2, and Fluid-Attenuated Inversion Recovery (FLAIR) sequences for model development. The proposed Attention Xception UNet (AXUNet) architecture integrates an Xception backbone with dot-product self-attention modules, inspired by state-of-the-art (SOTA) large language models such as Google Bard and OpenAI ChatGPT, within a UNet-shaped model. We compared AXUNet with SOTA models. Comparative evaluation on the test set demonstrated improved results over baseline models. Inception-UNet and Xception-UNet achieved mean Dice scores of 90.88 and 93.24, respectively. Attention ResUNet (AResUNet) attained a mean Dice score of 92.80, with the highest score of 84.92 for enhancing tumor (ET) among all models. Attention Gate UNet (AGUNet) yielded a mean Dice score of 90.38. AXUNet outperformed all models with a mean Dice score of 93.73. It demonstrated superior Dice scores across whole tumor (WT) and tumor core (TC) regions, achieving 92.59 for WT, 86.81 for TC, and 84.89 for ET. The integration of the Xception backbone and dot-product self-attention mechanisms in AXUNet showcases enhanced performance in capturing spatial and contextual information. The findings underscore the potential utility of AXUNet in facilitating precise tumor delineation.
- Abstract(参考訳): グリオーマ脳腫瘍の正確なセグメンテーションは診断と治療計画に不可欠である。
ディープラーニング技術は有望なソリューションを提供するが、最適なモデルアーキテクチャはまだ検討中である。
我々はBraTS 2021データセットを用いてコントラスト拡張(T1CE)、T2、Fluid-Attenuated Inversion Recovery(FLAIR)シーケンスをモデル開発に使用した。
提案されたAttention Xception UNet (AXUNet)アーキテクチャは,Google BardやOpenAI ChatGPTといった最先端(SOTA)の大規模言語モデルにインスパイアされた,Xceptionのバックボーンとドット生成自己認識モジュールを統合している。
我々はAXUNetとSOTAモデルを比較した。
テストセットの比較評価により,ベースラインモデルよりも改善した結果が得られた。
インセプション-UNetとXception-UNetはそれぞれ90.88と93.24のDiceスコアを達成した。
Attention ResUNet (AResUNet) のDiceスコアは92.80で、腫瘍(ET)を増強するための最高スコアは84.92であった。
Atention Gate UNet (AGUNet) の平均Diceスコアは90.38。
AXUNetは平均Diceスコア93.73で全てのモデルを上回った。
全腫瘍(WT)および腫瘍コア(TC)領域に優れたDiceスコアを示し、WTは92.59、TCは86.81、ETは84.89を達成した。
AXUNetにおけるXceptionバックボーンとドット生成自己保持機構の統合は、空間情報とコンテキスト情報をキャプチャする際のパフォーマンスの向上を示す。
この結果は、AXUNetが正確な腫瘍の脱線を促進する可能性を強調している。
関連論文リスト
- A New Logic For Pediatric Brain Tumor Segmentation [0.5942186563711294]
深層学習アーキテクチャを用いた小児脳腫瘍の分節化のための新しいアプローチを提案する。
PED BraTS 2024テストセットに4つの異なる腫瘍ラベルを基準としてベンチマークを行った。
我々は、最先端(SOTA)モデルに対して、我々のモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-11-03T00:52:14Z) - Handling Geometric Domain Shifts in Semantic Segmentation of Surgical RGB and Hyperspectral Images [67.66644395272075]
本稿では,幾何学的アウト・オブ・ディストリビューションデータに直面する場合の,最先端のセマンティックセマンティックセマンティクスモデルの最初の解析を行う。
本稿では, 汎用性を高めるために, 有機移植(Organ Transplantation)と呼ばれる拡張技術を提案する。
我々の拡張技術は、RGBデータに対して最大67%、HSIデータに対して90%のSOAモデル性能を改善し、実際のOODテストデータに対して、分配内パフォーマンスのレベルでのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-27T19:13:15Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - TotalSegmentator MRI: Robust Sequence-independent Segmentation of Multiple Anatomic Structures in MRI [59.86827659781022]
nnU-Netモデル(TotalSegmentator)をMRIおよび80原子構造で訓練した。
予測されたセグメンテーションと専門家基準セグメンテーションとの間には,ディススコアが算出され,モデル性能が評価された。
オープンソースで使いやすいモデルは、80構造の自動的で堅牢なセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.76736949127792]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Multi-class Brain Tumor Segmentation using Graph Attention Network [3.3635982995145994]
この研究は、MRIとグラフニューラルネットワーク(GNN)の進歩を生かして、効率的な脳腫瘍要約モデルを導入する。
このモデルは、ボリュームMRIを領域隣接グラフ(RAG)として表現し、グラフ注意ネットワーク(GAT)を通して腫瘍の種類を特定することを学習する。
論文 参考訳(メタデータ) (2023-02-11T04:30:40Z) - Hybrid Window Attention Based Transformer Architecture for Brain Tumor
Segmentation [28.650980942429726]
細かな特徴を抽出するための2つのウィンドウ化戦略に従うボリューム視覚変換器を提案する。
FeTS Challenge 2022データセット上で,ネットワークアーキテクチャをトレーニングし,評価した。
オンライン検証データセットのパフォーマンスは以下の通りである。 Dice similarity Score of 81.71%, 91.38%, 85.40%。
論文 参考訳(メタデータ) (2022-09-16T03:55:48Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Glioma Prognosis: Segmentation of the Tumor and Survival Prediction
using Shape, Geometric and Clinical Information [13.822139791199106]
我々は,ハイパーコラムを用いた畳み込みニューラルネットワーク(cnn)を用いて,健常脳組織から腫瘍を分離する。
私たちのモデルは、腫瘍全体、腫瘍コアおよび増強腫瘍の平均ダイス精度87.315%、77.04%および70.22%を達成した。
論文 参考訳(メタデータ) (2021-04-02T10:49:05Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。