論文の概要: Large-Kernel Attention for 3D Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2207.11225v1
- Date: Tue, 19 Jul 2022 16:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-31 14:21:02.721411
- Title: Large-Kernel Attention for 3D Medical Image Segmentation
- Title(参考訳): 3次元医用画像分割のための大カーネル注意
- Authors: Hao Li, Yang Nan, Javier Del Ser, Guang Yang
- Abstract要約: 本稿では,多臓器分割と腫瘍分割を正確に行うために,新しいLKアテンションモジュールを提案する。
畳み込みと自己注意の利点は、局所的な文脈情報、長距離依存、チャネル適応を含むLKアテンションモジュールで組み合わせられる。
モジュールはまた、計算コストを最適化するためにLK畳み込みを分解し、U-NetのようなFCNに簡単に組み込むことができる。
- 参考スコア(独自算出の注目度): 14.76728117630242
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatic segmentation of multiple organs and tumors from 3D medical images
such as magnetic resonance imaging (MRI) and computed tomography (CT) scans
using deep learning methods can aid in diagnosing and treating cancer. However,
organs often overlap and are complexly connected, characterized by extensive
anatomical variation and low contrast. In addition, the diversity of tumor
shape, location, and appearance, coupled with the dominance of background
voxels, makes accurate 3D medical image segmentation difficult. In this paper,
a novel large-kernel (LK) attention module is proposed to address these
problems to achieve accurate multi-organ segmentation and tumor segmentation.
The advantages of convolution and self-attention are combined in the proposed
LK attention module, including local contextual information, long-range
dependence, and channel adaptation. The module also decomposes the LK
convolution to optimize the computational cost and can be easily incorporated
into FCNs such as U-Net. Comprehensive ablation experiments demonstrated the
feasibility of convolutional decomposition and explored the most efficient and
effective network design. Among them, the best Mid-type LK attention-based
U-Net network was evaluated on CT-ORG and BraTS 2020 datasets, achieving
state-of-the-art segmentation performance. The performance improvement due to
the proposed LK attention module was also statistically validated.
- Abstract(参考訳): ディープラーニング法を用いてMRI(MRI)やCT(CT)スキャンなどの3次元医用画像からの複数の臓器や腫瘍の自動分離は、がんの診断と治療に役立つ。
しかし、臓器はしばしば重複し、複雑に結合しており、大きな解剖学的変異と低いコントラストが特徴である。
さらに, 腫瘍形状, 位置, 外観の多様性は, 背景ボクセルの優位性と相まって, 正確な3次元画像分割を困難にしている。
本稿では,これらの問題に対処し,高精度な多臓器分節と腫瘍分節を実現するために,LKアテンションモジュールを提案する。
畳み込みと自己注意の利点は、局所的な文脈情報、長距離依存、チャネル適応を含むLKアテンションモジュールで組み合わせられる。
モジュールはまた、計算コストを最適化するためにLK畳み込みを分解し、U-NetのようなFCNに簡単に組み込むことができる。
包括的アブレーション実験は畳み込み分解の可能性を示し、最も効率的で効果的なネットワーク設計を探求した。
その中でも, ct-org と brats 2020 データセットを用いて, 最高の中型 lk 注意型 u-net ネットワークの評価を行い, 最先端のセグメンテーション性能を得た。
提案したLKアテンションモジュールによる性能改善も統計的に検証された。
関連論文リスト
- MBDRes-U-Net: Multi-Scale Lightweight Brain Tumor Segmentation Network [0.0]
本研究では,マルチブランチ残差ブロックを統合した3次元U-Netフレームワークを用いたMBDRes-U-Netモデルを提案する。
モデルの計算負担は分岐戦略によって低減され、マルチモーダル画像のリッチな局所的特徴を効果的に活用する。
論文 参考訳(メタデータ) (2024-11-04T09:03:43Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - 3D Medical Image Segmentation based on multi-scale MPU-Net [5.393743755706745]
本稿では,患者のCT画像に対する腫瘍分割モデルMPU-Netを提案する。
グローバルアテンション機構を備えたTransformerにインスパイアされている。
ベンチマークモデルであるU-Netと比較して、MPU-Netは優れたセグメンテーション結果を示す。
論文 参考訳(メタデータ) (2023-07-11T20:46:19Z) - 3D Brainformer: 3D Fusion Transformer for Brain Tumor Segmentation [6.127298607534532]
深層学習は、最近脳腫瘍のセグメンテーションを改善するために現れた。
変換器は畳み込みネットワークの限界に対処するために利用されてきた。
本稿では,3次元トランスフォーマーを用いたセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2023-04-28T02:11:29Z) - Two-stage MR Image Segmentation Method for Brain Tumors based on
Attention Mechanism [27.08977505280394]
CycleGAN(CycleGAN)に基づく協調・空間的注意生成対向ネットワーク(CASP-GAN)を提案する。
ジェネレータの性能は、コーディネート・アテンション(CA)モジュールと空間アテンション(SA)モジュールを導入することで最適化される。
元の医用画像の構造情報と詳細な情報を抽出する能力は、所望の画像をより高品質に生成するのに役立つ。
論文 参考訳(メタデータ) (2023-04-17T08:34:41Z) - Multimodal Multi-Head Convolutional Attention with Various Kernel Sizes
for Medical Image Super-Resolution [56.622832383316215]
超解像CTおよびMRIスキャンのための新しいマルチヘッド畳み込みアテンションモジュールを提案する。
我々の注目モジュールは、畳み込み操作を用いて、複数の入力テンソルに対して共同的な空間チャネルアテンションを行う。
それぞれの頭部は空間的注意に対する特定の減少率に応じた受容野の大きさの異なる複数の注意ヘッドを導入している。
論文 参考訳(メタデータ) (2022-04-08T07:56:55Z) - Category Guided Attention Network for Brain Tumor Segmentation in MRI [6.685945448824158]
カテゴリー案内注意U-Net(CGA U-Net)という新しいセグメンテーションネットワークを提案する。
本モデルでは,より正確かつ安定した特徴写像の長距離依存性を計算コストを伴わずに捉えることのできる,注目機構に基づくスーパービジョンアテンションモジュール(SAM)を設計する。
BraTS 2019データセットの実験的結果は、提案手法がセグメント化性能と計算複雑性の両方において最先端のアルゴリズムより優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T09:22:29Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Rethinking the Extraction and Interaction of Multi-Scale Features for
Vessel Segmentation [53.187152856583396]
網膜血管と主要動脈を2次元基底画像と3次元CTアンギオグラフィー(CTA)スキャンで分割する,PC-Netと呼ばれる新しいディープラーニングモデルを提案する。
PC-Netでは、ピラミッド圧縮励起(PSE)モジュールが各畳み込みブロックに空間情報を導入し、より効果的なマルチスケール特徴を抽出する能力を高めている。
論文 参考訳(メタデータ) (2020-10-09T08:22:54Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。