論文の概要: 3D SA-UNet: 3D Spatial Attention UNet with 3D ASPP for White Matter
Hyperintensities Segmentation
- arxiv url: http://arxiv.org/abs/2309.08402v1
- Date: Fri, 15 Sep 2023 13:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 14:31:36.981846
- Title: 3D SA-UNet: 3D Spatial Attention UNet with 3D ASPP for White Matter
Hyperintensities Segmentation
- Title(参考訳): 3d sa-unet: white matter hyperintensities segmentationのための3d asppを用いた3d空間注意unet
- Authors: Changlu Guo
- Abstract要約: コンピュータ技術を用いたWhite Matter Hyperintensity(WMH)の正確なセグメンテーションは早期診断に不可欠である。
自動WMHセグメンテーションのための3次元空間注意U-Netと呼ばれる深層学習モデルを提案する。
提案した3D SA-UNetモデルは,他の最先端の3D畳み込みニューラルネットワークと比較して精度が高いことを示す。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: White Matter Hyperintensity (WMH) is an imaging feature related to various
diseases such as dementia and stroke. Accurately segmenting WMH using computer
technology is crucial for early disease diagnosis. However, this task remains
challenging due to the small lesions with low contrast and high discontinuity
in the images, which contain limited contextual and spatial information. To
address this challenge, we propose a deep learning model called 3D Spatial
Attention U-Net (3D SA-UNet) for automatic WMH segmentation using only Fluid
Attenuation Inversion Recovery (FLAIR) scans. The 3D SA-UNet introduces a 3D
Spatial Attention Module that highlights important lesion features, such as
WMH, while suppressing unimportant regions. Additionally, to capture features
at different scales, we extend the Atrous Spatial Pyramid Pooling (ASPP) module
to a 3D version, enhancing the segmentation performance of the network. We
evaluate our method on publicly available dataset and demonstrate the
effectiveness of 3D spatial attention module and 3D ASPP in WMH segmentation.
Through experimental results, it has been demonstrated that our proposed 3D
SA-UNet model achieves higher accuracy compared to other state-of-the-art 3D
convolutional neural networks.
- Abstract(参考訳): ホワイトマター・ハイパーインテンシティ(White Matter Hyperintensity, WMH)は、認知症や脳卒中などの様々な疾患に関連する画像特徴である。
コンピュータ技術を用いたWMHの正確なセグメンテーションは早期診断に不可欠である。
しかし、コントラストが低く、画像に不連続な小さな病変があり、文脈情報や空間情報も限られているため、この課題は依然として困難である。
この課題に対処するために,Fluid Attenuation Inversion Recovery (FLAIR) スキャンのみを用いた自動WMHセグメンテーションのための3次元空間注意U-Net(3D SA-UNet)というディープラーニングモデルを提案する。
3D SA-UNetは、重要でない領域を抑えながら、WMHのような重要な病変の特徴を強調する3D空間注意モジュールを導入した。
さらに,異なるスケールで特徴をキャプチャするために,atrous spatial pyramid pooling (aspp) モジュールを3dバージョンに拡張し,ネットワークのセグメンテーション性能を向上させる。
提案手法を公開データセット上で評価し,WMHセグメンテーションにおける3次元空間注意モジュールと3次元ASPPの有効性を実証した。
実験の結果,提案した3D SA-UNetモデルは,他の最先端の3D畳み込みニューラルネットワークと比較して精度が高いことがわかった。
関連論文リスト
- Tri-Plane Mamba: Efficiently Adapting Segment Anything Model for 3D Medical Images [16.55283939924806]
3次元医用画像分割のための一般的なネットワークは、最近広範囲にわたる探索が行われている。
SAM(Segment Anything Model)の出現により、このモデルは2次元医用画像分割タスクにおいて優れた性能を得られるようになった。
1)局所的な深度レベルの情報を効率的に処理するために最適化されたマルチスケール3次元畳み込みアダプタ,2)長距離深度レベルの表現を捉えるために設計された三面体マンバモジュールである。
論文 参考訳(メタデータ) (2024-09-13T02:37:13Z) - Shape2Scene: 3D Scene Representation Learning Through Pre-training on Shape Data [61.36872381753621]
Shape2Scene(S2S)は3次元形状データから大規模3次元シーンの表現を学習する新しい手法である。
MH-P/Vは、複数のスケールにわたる深い意味情報をキャプチャする高解像度機能への直接パスを確立する。
S2SSアマルガメートは様々な形状を指して、トレーニングデータのためのランダムな擬似シーン(複数のオブジェクトを含む)を作成する。
実験では,MH-P/Vで学習した3次元表現の形状レベルおよびシーンレベルの3次元タスク間での伝達性を示した。
論文 参考訳(メタデータ) (2024-07-14T13:42:05Z) - Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Multi-dimension unified Swin Transformer for 3D Lesion Segmentation in
Multiple Anatomical Locations [1.7413461132662074]
3次元病変分割のためのMDU-ST(multi-dimension unified Swin transformer)と呼ばれる新しいモデルを提案する。
ネットワークの性能はDice similarity coefficient(DSC)とHausdorff distance(HD)で内部の3D病変データセットを用いて評価される。
提案手法は, 放射線学および腫瘍成長モデル研究を支援するために, 自動3次元病変セグメンテーションを行うために用いられる。
論文 参考訳(メタデータ) (2023-09-04T21:24:00Z) - APAUNet: Axis Projection Attention UNet for Small Target in 3D Medical
Segmentation [33.942069304961436]
本稿では,APAUNetと命名されたAxis Projection Attention UNetを3次元医用画像セグメンテーション,特に小ターゲットに対して提案する。
3次元特徴空間の背景の大部分を考慮すると、3次元特徴を3次元平面に投影し、異なる視点から文脈的注意を捉えるプロジェクション戦略を導入する。
APAデコーダでは,2次元投影プロセスにおいて高分解能と低分解能の両方を学習し,より正確なマルチスケール情報を得る。
論文 参考訳(メタデータ) (2022-10-04T09:28:58Z) - EGFN: Efficient Geometry Feature Network for Fast Stereo 3D Object
Detection [51.52496693690059]
高速ステレオベース3Dオブジェクト検出器は高精度指向法よりもはるかに遅れている。
主な理由として,高速ステレオ法における3次元幾何学的特徴表現の欠如や不足があげられる。
提案された EGFN は、YOLOStsereo3D よりも5.16%向上し、mAP$_3d$ をわずか12msで上回った。
論文 参考訳(メタデータ) (2021-11-28T05:25:36Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。