論文の概要: APAUNet: Axis Projection Attention UNet for Small Target in 3D Medical
Segmentation
- arxiv url: http://arxiv.org/abs/2210.01485v1
- Date: Tue, 4 Oct 2022 09:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 14:35:34.046747
- Title: APAUNet: Axis Projection Attention UNet for Small Target in 3D Medical
Segmentation
- Title(参考訳): APAUNet: 3Dメディカルセグメンテーションにおける小さなターゲットのための軸投影注意UNet
- Authors: Yuncheng Jiang, Zixun Zhang, Shixi Qin, Yao Guo, Zhen Li, Shuguang Cui
- Abstract要約: 本稿では,APAUNetと命名されたAxis Projection Attention UNetを3次元医用画像セグメンテーション,特に小ターゲットに対して提案する。
3次元特徴空間の背景の大部分を考慮すると、3次元特徴を3次元平面に投影し、異なる視点から文脈的注意を捉えるプロジェクション戦略を導入する。
APAデコーダでは,2次元投影プロセスにおいて高分解能と低分解能の両方を学習し,より正確なマルチスケール情報を得る。
- 参考スコア(独自算出の注目度): 33.942069304961436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 3D medical image segmentation, small targets segmentation is crucial for
diagnosis but still faces challenges. In this paper, we propose the Axis
Projection Attention UNet, named APAUNet, for 3D medical image segmentation,
especially for small targets. Considering the large proportion of the
background in the 3D feature space, we introduce a projection strategy to
project the 3D features into three orthogonal 2D planes to capture the
contextual attention from different views. In this way, we can filter out the
redundant feature information and mitigate the loss of critical information for
small lesions in 3D scans. Then we utilize a dimension hybridization strategy
to fuse the 3D features with attention from different axes and merge them by a
weighted summation to adaptively learn the importance of different
perspectives. Finally, in the APA Decoder, we concatenate both high and low
resolution features in the 2D projection process, thereby obtaining more
precise multi-scale information, which is vital for small lesion segmentation.
Quantitative and qualitative experimental results on two public datasets (BTCV
and MSD) demonstrate that our proposed APAUNet outperforms the other methods.
Concretely, our APAUNet achieves an average dice score of 87.84 on BTCV, 84.48
on MSD-Liver and 69.13 on MSD-Pancreas, and significantly surpass the previous
SOTA methods on small targets.
- Abstract(参考訳): 3次元医用画像分割では、小さなターゲットのセグメンテーションが診断に不可欠であるが、それでも課題に直面している。
本稿では,3次元医用画像セグメンテーションのための軸投影用アパウネット(apaunet)を提案する。
3次元特徴空間における背景の多さを考慮すると、3次元特徴を3つの直交2次元平面に投影し、異なる視点からの文脈的注意を捉える投影戦略を導入する。
このようにして、冗長な特徴情報をフィルタリングし、3Dスキャンで小さな病変に対する臨界情報の損失を軽減することができる。
次に,次元ハイブリッド化戦略を用いて,異なる軸から注意を払って3次元特徴を融合させ,重み付け和で融合させ,異なる視点の重要性を適応的に学習する。
最後に,APAデコーダにおいて,2次元投影過程における高分解能特徴と低分解能特徴の両方を結合させ,より高精度なマルチスケール情報を得る。
2つの公開データセット(BTCVとMSD)の定量的および定性的な実験結果から,提案手法が他の手法よりも優れていることが示された。
具体的には, BTCVでは平均87.84点, MSD-Liverでは84.48点, MSD-Pancreasでは69.13点であり, 従来のSOTA法をはるかに上回っている。
関連論文リスト
- Enhancing Weakly Supervised 3D Medical Image Segmentation through
Probabilistic-aware Learning [52.249748801637196]
3次元医用画像のセグメンテーションは、疾患の診断と治療計画に重要な意味を持つ課題である。
近年の深層学習の進歩は、完全に教師付き医療画像のセグメンテーションを著しく強化している。
本稿では,3次元医用画像に特化して設計された,確率的適応型弱教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-05T00:46:53Z) - 3D Vascular Segmentation Supervised by 2D Annotation of Maximum
Intensity Projection [33.34240545722551]
血管構造のセグメンテーションは、医学的分析と臨床応用において重要な役割を担っている。
既存の弱監督法は, スパース血管構造を扱う際に, 最適下肢機能を示した。
ここでは,3次元体積の次元を2次元画像に変換するために,最大強度投影(MIP)を用いる。
MIPを介して2D-3Dの深い特徴を融合してセグメンテーション性能を向上させる弱教師付きネットワークを導入する。
論文 参考訳(メタデータ) (2024-02-19T13:24:46Z) - 3D SA-UNet: 3D Spatial Attention UNet with 3D ASPP for White Matter
Hyperintensities Segmentation [1.0152838128195467]
コンピュータ技術を用いたWhite Matter Hyperintensity(WMH)の正確なセグメンテーションは早期診断に不可欠である。
自動WMHセグメンテーションのための3次元空間注意U-Netと呼ばれる深層学習モデルを提案する。
提案した3D SA-UNetモデルは,他の最先端の3D畳み込みニューラルネットワークと比較して精度が高いことを示す。
論文 参考訳(メタデータ) (2023-09-15T13:54:48Z) - Multi-dimension unified Swin Transformer for 3D Lesion Segmentation in
Multiple Anatomical Locations [1.7413461132662074]
3次元病変分割のためのMDU-ST(multi-dimension unified Swin transformer)と呼ばれる新しいモデルを提案する。
ネットワークの性能はDice similarity coefficient(DSC)とHausdorff distance(HD)で内部の3D病変データセットを用いて評価される。
提案手法は, 放射線学および腫瘍成長モデル研究を支援するために, 自動3次元病変セグメンテーションを行うために用いられる。
論文 参考訳(メタデータ) (2023-09-04T21:24:00Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - PAENet: A Progressive Attention-Enhanced Network for 3D to 2D Retinal
Vessel Segmentation [0.0]
光コヒーレンス・トモグラフィー(OCTA)画像では3次元から2次元の網膜血管セグメンテーションは難しい問題である。
本稿では,多機能表現を抽出するアテンション機構に基づくプログレッシブ・アテンション・エンハンスメント・ネットワーク(PAENet)を提案する。
提案アルゴリズムは,従来の手法と比較して最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-26T10:27:25Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。