論文の概要: 3D SA-UNet: 3D Spatial Attention UNet with 3D ASPP for White Matter
Hyperintensities Segmentation
- arxiv url: http://arxiv.org/abs/2309.08402v3
- Date: Mon, 20 Nov 2023 13:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 17:54:57.378827
- Title: 3D SA-UNet: 3D Spatial Attention UNet with 3D ASPP for White Matter
Hyperintensities Segmentation
- Title(参考訳): 3d sa-unet: white matter hyperintensities segmentationのための3d asppを用いた3d空間注意unet
- Authors: Changlu Guo
- Abstract要約: コンピュータ技術を用いたWhite Matter Hyperintensity(WMH)の正確なセグメンテーションは早期診断に不可欠である。
自動WMHセグメンテーションのための3次元空間注意U-Netと呼ばれる深層学習モデルを提案する。
提案した3D SA-UNetモデルは,他の最先端の3D畳み込みニューラルネットワークと比較して精度が高いことを示す。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: White Matter Hyperintensity (WMH) is an imaging feature related to various
diseases such as dementia and stroke. Accurately segmenting WMH using computer
technology is crucial for early disease diagnosis. However, this task remains
challenging due to the small lesions with low contrast and high discontinuity
in the images, which contain limited contextual and spatial information. To
address this challenge, we propose a deep learning model called 3D Spatial
Attention U-Net (3D SA-UNet) for automatic WMH segmentation using only Fluid
Attenuation Inversion Recovery (FLAIR) scans. The 3D SA-UNet introduces a 3D
Spatial Attention Module that highlights important lesion features, such as
WMH, while suppressing unimportant regions. Additionally, to capture features
at different scales, we extend the Atrous Spatial Pyramid Pooling (ASPP) module
to a 3D version, enhancing the segmentation performance of the network. We
evaluate our method on publicly available dataset and demonstrate the
effectiveness of 3D spatial attention module and 3D ASPP in WMH segmentation.
Through experimental results, it has been demonstrated that our proposed 3D
SA-UNet model achieves higher accuracy compared to other state-of-the-art 3D
convolutional neural networks.
- Abstract(参考訳): ホワイトマター・ハイパーインテンシティ(White Matter Hyperintensity, WMH)は、認知症や脳卒中などの様々な疾患に関連する画像特徴である。
コンピュータ技術を用いたWMHの正確なセグメンテーションは早期診断に不可欠である。
しかし、コントラストが低く、画像に不連続な小さな病変があり、文脈情報や空間情報も限られているため、この課題は依然として困難である。
この課題に対処するために,Fluid Attenuation Inversion Recovery (FLAIR) スキャンのみを用いた自動WMHセグメンテーションのための3次元空間注意U-Net(3D SA-UNet)というディープラーニングモデルを提案する。
3D SA-UNetは、重要でない領域を抑えながら、WMHのような重要な病変の特徴を強調する3D空間注意モジュールを導入した。
さらに,異なるスケールで特徴をキャプチャするために,atrous spatial pyramid pooling (aspp) モジュールを3dバージョンに拡張し,ネットワークのセグメンテーション性能を向上させる。
提案手法を公開データセット上で評価し,WMHセグメンテーションにおける3次元空間注意モジュールと3次元ASPPの有効性を実証した。
実験の結果,提案した3D SA-UNetモデルは,他の最先端の3D畳み込みニューラルネットワークと比較して精度が高いことがわかった。
関連論文リスト
- StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - DEFN: Dual-Encoder Fourier Group Harmonics Network for Three-Dimensional
Macular Hole Reconstruction with Stochastic Retinal Defect Augmentation and
Dynamic Weight Composition [23.825571685417426]
我々はDEFN(Dual-Encoder FuGH Network)という革新的な空間分割ネットワークを開発している。
DEFNは3つの革新的なモジュールを統合している: Group Harmonics (FuGH)、S3DSA、Harmonic Squeeze-and-Excitation Module (HSE)。
また、正確な3D網膜再建と定量的な測定値を提供し、眼科医に革命的診断と治療的意思決定ツールを提供する。
論文 参考訳(メタデータ) (2023-11-01T12:33:04Z) - Multi-dimension unified Swin Transformer for 3D Lesion Segmentation in
Multiple Anatomical Locations [1.7413461132662074]
3次元病変分割のためのMDU-ST(multi-dimension unified Swin transformer)と呼ばれる新しいモデルを提案する。
ネットワークの性能はDice similarity coefficient(DSC)とHausdorff distance(HD)で内部の3D病変データセットを用いて評価される。
提案手法は, 放射線学および腫瘍成長モデル研究を支援するために, 自動3次元病変セグメンテーションを行うために用いられる。
論文 参考訳(メタデータ) (2023-09-04T21:24:00Z) - NeRF-Det: Learning Geometry-Aware Volumetric Representation for
Multi-View 3D Object Detection [65.02633277884911]
提案するNeRF-Detは,RGB画像を入力として室内3次元検出を行う新しい手法である。
提案手法は3次元形状を明示的に推定するため, エンドツーエンドでNeRFを用いて3次元検出性能を向上する。
論文 参考訳(メタデータ) (2023-07-27T04:36:16Z) - APAUNet: Axis Projection Attention UNet for Small Target in 3D Medical
Segmentation [33.942069304961436]
本稿では,APAUNetと命名されたAxis Projection Attention UNetを3次元医用画像セグメンテーション,特に小ターゲットに対して提案する。
3次元特徴空間の背景の大部分を考慮すると、3次元特徴を3次元平面に投影し、異なる視点から文脈的注意を捉えるプロジェクション戦略を導入する。
APAデコーダでは,2次元投影プロセスにおいて高分解能と低分解能の両方を学習し,より正確なマルチスケール情報を得る。
論文 参考訳(メタデータ) (2022-10-04T09:28:58Z) - EGFN: Efficient Geometry Feature Network for Fast Stereo 3D Object
Detection [51.52496693690059]
高速ステレオベース3Dオブジェクト検出器は高精度指向法よりもはるかに遅れている。
主な理由として,高速ステレオ法における3次元幾何学的特徴表現の欠如や不足があげられる。
提案された EGFN は、YOLOStsereo3D よりも5.16%向上し、mAP$_3d$ をわずか12msで上回った。
論文 参考訳(メタデータ) (2021-11-28T05:25:36Z) - 3-Dimensional Deep Learning with Spatial Erasing for Unsupervised
Anomaly Segmentation in Brain MRI [55.97060983868787]
我々は,MRIボリュームと空間消去を組み合わせた空間文脈の増大が,教師なしの異常セグメンテーション性能の向上に繋がるかどうかを検討する。
本稿では,2次元変分オートエンコーダ(VAE)と3次元の相違点を比較し,3次元入力消去を提案し,データセットサイズが性能に与える影響を体系的に検討する。
入力消去による最高の3D VAEは、平均DICEスコアが31.40%となり、2D VAEは25.76%となった。
論文 参考訳(メタデータ) (2021-09-14T09:17:27Z) - R2U3D: Recurrent Residual 3D U-Net for Lung Segmentation [17.343802171952195]
本稿では,3次元肺分割作業のための新しいモデルであるRecurrent Residual 3D U-Net(R2U3D)を提案する。
特に,提案モデルでは,U-Netに基づくRecurrent Residual Neural Networkに3次元畳み込みを組み込む。
提案するR2U3Dネットワークは、公開データセットLUNA16に基づいてトレーニングされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-05T19:17:14Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。