論文の概要: AAU-net: An Adaptive Attention U-net for Breast Lesions Segmentation in
Ultrasound Images
- arxiv url: http://arxiv.org/abs/2204.12077v1
- Date: Tue, 26 Apr 2022 05:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:03:08.638685
- Title: AAU-net: An Adaptive Attention U-net for Breast Lesions Segmentation in
Ultrasound Images
- Title(参考訳): AAU-net:超音波画像における乳腺病変分離のための適応的注意U-net
- Authors: Gongping Chen, Yu Dai, Jianxun Zhang and Moi Hoon Yap
- Abstract要約: 超音波画像から乳房病変を自動的に,安定的に分離する適応型注意U-net(AAU-net)を開発した。
具体的には、主にチャネル自己注意ブロックと空間自己注意ブロックからなるハイブリッド適応型アダプティブアテンションモジュールを提案する。
- 参考スコア(独自算出の注目度): 10.036858255491458
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Various deep learning methods have been proposed to segment breast lesion
from ultrasound images. However, similar intensity distributions, variable
tumor morphology and blurred boundaries present challenges for breast lesions
segmentation, especially for malignant tumors with irregular shapes.
Considering the complexity of ultrasound images, we develop an adaptive
attention U-net (AAU-net) to segment breast lesions automatically and stably
from ultrasound images. Specifically, we introduce a hybrid adaptive attention
module, which mainly consists of a channel self-attention block and a spatial
self-attention block, to replace the traditional convolution operation.
Compared with the conventional convolution operation, the design of the hybrid
adaptive attention module can help us capture more features under different
receptive fields. Different from existing attention mechanisms, the hybrid
adaptive attention module can guide the network to adaptively select more
robust representation in channel and space dimensions to cope with more complex
breast lesions segmentation. Extensive experiments with several
state-of-the-art deep learning segmentation methods on three public breast
ultrasound datasets show that our method has better performance on breast
lesion segmentation. Furthermore, robustness analysis and external experiments
demonstrate that our proposed AAU-net has better generalization performance on
the segmentation of breast lesions. Moreover, the hybrid adaptive attention
module can be flexibly applied to existing network frameworks.
- Abstract(参考訳): 超音波画像から乳房病変を抽出する様々な深層学習法が提案されている。
しかし, 同様の強度分布, 腫瘍形態, ぼやけた境界は, 乳腺病変の分節, 特に異常な形状の悪性腫瘍に対する課題を呈している。
超音波画像の複雑さを考慮し,乳腺病変を超音波画像から自動的に安定的に分離する適応型注意U-net(AAU-net)を開発した。
具体的には,従来の畳み込み操作に代えて,チャネル自己着型ブロックと空間自己着型ブロックを主とするハイブリッド適応型アテンションモジュールを提案する。
従来の畳み込み操作と比較して,ハイブリッド適応型アテンションモジュールの設計は,異なる受容領域下でより多くの特徴を捉えるのに役立つ。
既存の注意機構と異なり、ハイブリッド適応型注意モジュールはネットワークを誘導し、より複雑な乳房病変のセグメンテーションに対処するために、チャネルと空間次元のより堅牢な表現を適応的に選択することができる。
3つの公衆乳房超音波データセットにおける最先端のディープラーニングセグメンテーション法を用いた広範囲な実験により,乳房病変セグメンテーションの性能が向上した。
さらにロバスト性解析と外部実験により,提案するaau-netは乳腺病変の分節化においてより汎用性が向上することが示された。
さらに、ハイブリッドアダプティブアテンションモジュールを既存のネットワークフレームワークに柔軟に適用することができる。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - AResNet-ViT: A Hybrid CNN-Transformer Network for Benign and Malignant Breast Nodule Classification in Ultrasound Images [4.378181181541931]
CNNとTransformerを統合した深層学習ネットワークが,超音波画像における良性および悪性乳腺病変の分類のために提案されている。
このネットワークは、局所的特徴抽出にデュアルブランチアーキテクチャを採用し、局所的特徴抽出におけるCNNの利点をフル活用する。
グローバルな特徴抽出ブランチは、組織全体の形状、境界、および周囲の組織との関係をキャプチャできるマルチヘッド自己注意型ViTネットワークを利用する。
論文 参考訳(メタデータ) (2024-07-27T18:18:45Z) - Enhancing AI Diagnostics: Autonomous Lesion Masking via Semi-Supervised Deep Learning [1.4053129774629076]
本研究では,乳房超音波(US)画像における乳房病変の鑑別を目的とした,関心領域(ROI)を自律的に生成することを目的とした,教師なし領域適応手法を提案する。
我々の半教師付き学習アプローチは、真のアノテーションを持つ小さな母乳USデータセットで訓練された原始モデルを利用する。
このモデルはドメイン適応タスクのために反復的に洗練され、当社のプライベートな無注釈乳房データセットに擬似マスクを生成します。
論文 参考訳(メタデータ) (2024-04-18T18:25:00Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - ESKNet-An enhanced adaptive selection kernel convolution for breast
tumors segmentation [13.897849323634283]
乳がんは、世界の女性の健康を危険にさらす一般的ながんの1つである。
CNNは超音波画像から乳腺腫瘍を分離するために提案されている。
乳腺腫瘍セグメンテーションのための選択的カーネル・コンボリューションを改良した。
論文 参考訳(メタデータ) (2022-11-05T14:15:29Z) - RCA-IUnet: A residual cross-spatial attention guided inception U-Net
model for tumor segmentation in breast ultrasound imaging [0.6091702876917281]
本稿では,腫瘍セグメンテーションのトレーニングパラメータが最小限に抑えられたRCA-IUnetモデルについて紹介する。
RCA-IUnetモデルは、U-Netトポロジに従い、奥行きの深い分離可能な畳み込みとハイブリッドプール層を持つ。
無関係な特徴を抑え、対象構造に焦点を合わせるために、空間横断型アテンションフィルタが加えられる。
論文 参考訳(メタデータ) (2021-08-05T10:35:06Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。