論文の概要: Parallel Network with Channel Attention and Post-Processing for Carotid
Arteries Vulnerable Plaque Segmentation in Ultrasound Images
- arxiv url: http://arxiv.org/abs/2204.08127v1
- Date: Mon, 18 Apr 2022 01:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 16:36:35.137304
- Title: Parallel Network with Channel Attention and Post-Processing for Carotid
Arteries Vulnerable Plaque Segmentation in Ultrasound Images
- Title(参考訳): 超音波画像における頸動脈びまん性プラーク分画のチャネル注意と後処理を伴う並列ネットワーク
- Authors: Yanchao Yuan, Cancheng Li, Lu Xu, Ke Zhang, Yang Hua, Jicong Zhang
- Abstract要約: 本稿では,頸動脈超音波画像におけるプラークセグメンテーションのための自動畳み込みニューラルネットワーク(CNN)手法を提案する。
試験結果から, 30種類のプラークに対して, ディス値0.820, IoU 0.701, Acc 0.969, Hausdorff 距離 1.43 の修正Hausdorff 距離 (MHD) が得られた。
- 参考スコア(独自算出の注目度): 15.001128693323206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Carotid arteries vulnerable plaques are a crucial factor in the screening of
atherosclerosis by ultrasound technique. However, the plaques are contaminated
by various noises such as artifact, speckle noise, and manual segmentation may
be time-consuming. This paper proposes an automatic convolutional neural
network (CNN) method for plaque segmentation in carotid ultrasound images using
a small dataset. First, a parallel network with three independent scale
decoders is utilized as our base segmentation network, pyramid dilation
convolutions are used to enlarge receptive fields in the three segmentation
sub-networks. Subsequently, the three decoders are merged to be rectified in
channels by SENet. Thirdly, in test stage, the initially segmented plaque is
refined by the max contour morphology post-processing to obtain the final
plaque. Moreover, three loss function Dice loss, SSIM loss and cross-entropy
loss are compared to segment plaques. Test results show that the proposed
method with dice loss function yields a Dice value of 0.820, an IoU of 0.701,
Acc of 0.969, and modified Hausdorff distance (MHD) of 1.43 for 30 vulnerable
cases of plaques, it outperforms some of the conventional CNN-based methods on
these metrics. Additionally, we apply an ablation experiment to show the
validity of each proposed module. Our study provides some reference for similar
researches and may be useful in actual applications for plaque segmentation of
ultrasound carotid arteries.
- Abstract(参考訳): 超音波による動脈硬化のスクリーニングには頸動脈の脆弱なプラークが重要である。
しかし、プラークは人工物、スペックルノイズ、手動セグメンテーションなどの様々なノイズによって汚染される可能性がある。
本稿では,小データセットを用いた頸動脈超音波画像のプラークセグメンテーションのための自動畳み込みニューラルネットワーク(CNN)を提案する。
まず、3つの独立したスケールデコーダを持つ並列ネットワークをベースセグメンテーションネットワークとして利用し、3つのセグメンテーションサブネットワークにおける受容場の拡大にピラミッド拡張畳み込みを用いる。
その後、3つのデコーダはsenetによって整流されるようにマージされる。
第3に、試験段階では、初期分断されたプラークを最大輪郭形状後処理により精製して最終プラークを得る。
さらに,3つの損失関数Dice損失,SSIM損失,クロスエントロピー損失をセグメントプラークと比較した。
試験結果から, ダイス損失関数を用いた提案手法は, 従来のCNN法よりも, ダイス値0.820, IoU 0.701, Acc 0.969, Hausdorff 距離 1.43 の修正Hausdorff 距離 (MHD) が優れていることがわかった。
さらに,提案モジュールの妥当性を示すためにアブレーション実験を適用した。
本研究は同様の研究の参考として,超音波頸動脈のプラークセグメンテーションに有用であると考えられる。
関連論文リスト
- Lesion-aware network for diabetic retinopathy diagnosis [28.228110579446227]
CNNをベースとした糖尿病網膜症(DR)診断ネットワークを提案する。
提案するLANetは,DR関連情報利用のためのCNNデコーダにLAMとFPMを埋め込んで構成する。
本手法は, DR検診において 0.967 の曲線下領域で本手法より優れており, 全体の平均精度を3つのデータセットで7.6%, 2.1%, 1.2%向上させる。
論文 参考訳(メタデータ) (2024-08-14T03:06:04Z) - WATUNet: A Deep Neural Network for Segmentation of Volumetric Sweep
Imaging Ultrasound [1.2903292694072621]
ボリューム・スイープ・イメージング(VSI)は、訓練を受けていないオペレーターが高品質な超音波画像をキャプチャできる革新的な手法である。
本稿ではWavelet_Attention_UNet(WATUNet)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルでは、簡単な接続ではなく、ウェーブレットゲート(WG)とアテンションゲート(AG)をエンコーダとデコーダの間に組み込んで、上記の制限を克服する。
論文 参考訳(メタデータ) (2023-11-17T20:32:37Z) - Attention-based CT Scan Interpolation for Lesion Segmentation of
Colorectal Liver Metastases [2.680862925538592]
大腸癌 (CRLM) に共通する小肝病変は, 畳み込みニューラルネットワーク (CNN) セグメンテーションモデルでは困難である。
我々は,CTスキャンにおける連続3重スライスから中間スライスを生成する,教師なしアテンションベースモデルを提案する。
モデルの出力は元の入力スライスと一致し、2つの最先端3Dセグメンテーションパイプラインにおけるセグメンテーション性能を向上する。
論文 参考訳(メタデータ) (2023-08-30T10:21:57Z) - Weakly supervised segmentation of intracranial aneurysms using a novel 3D focal modulation UNet [0.5106162890866905]
本稿では,新しい3次元焦点変調UNetであるFocalSegNetを提案する。
UIA検出では偽陽性率は0.21で感度は0.80であった。
論文 参考訳(メタデータ) (2023-08-06T03:28:08Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Acute ischemic stroke lesion segmentation in non-contrast CT images
using 3D convolutional neural networks [0.0]
非コントラストCT脳画像における急性虚血性脳梗塞の容積分画を目的とした自動アルゴリズムを提案する。
我々のディープラーニングアプローチは、人気のある3D U-Net畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2023-01-17T10:39:39Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Two-Stage Mesh Deep Learning for Automated Tooth Segmentation and
Landmark Localization on 3D Intraoral Scans [56.55092443401416]
TS-MDLの最初の段階では、mphiMeshSegNetは0.953pm0.076$で平均Dice類似係数(DSC)に達した。
PointNet-Reg は平均絶対誤差 (MAE) が 0.623pm0.718, mm$ であり、ランドマーク検出の他のネットワークよりも優れている。
論文 参考訳(メタデータ) (2021-09-24T13:00:26Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。