論文の概要: Joint Left Atrial Segmentation and Scar Quantification Based on a DNN
with Spatial Encoding and Shape Attention
- arxiv url: http://arxiv.org/abs/2006.13011v1
- Date: Tue, 23 Jun 2020 13:55:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 23:47:13.123339
- Title: Joint Left Atrial Segmentation and Scar Quantification Based on a DNN
with Spatial Encoding and Shape Attention
- Title(参考訳): 空間エンコーディングと形状注意を用いたDNNによる左房左房分画とスカー定量化
- Authors: Lei Li, Xin Weng, Julia A. Schnabel, Xiahai Zhuang
- Abstract要約: 本稿では,左心房(LA)空洞を同時に分割し,LAの傷跡を定量化するエンド・ツー・エンドディープ・ニューラル・ネットワーク(DNN)を提案する。
提案フレームワークは,空間符号化(SE)ロスを導入することで,目標の連続的な空間情報を組み込む。
LAセグメンテーションでは、3D基本U-Netと比較して平均ハウスドルフ距離を36.4mmから20.0mmに減らした。
- 参考スコア(独自算出の注目度): 21.310508988246937
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose an end-to-end deep neural network (DNN) which can simultaneously
segment the left atrial (LA) cavity and quantify LA scars. The framework
incorporates the continuous spatial information of the target by introducing a
spatially encoded (SE) loss based on the distance transform map. Compared to
conventional binary label based loss, the proposed SE loss can reduce noisy
patches in the resulting segmentation, which is commonly seen for deep
learning-based methods. To fully utilize the inherent spatial relationship
between LA and LA scars, we further propose a shape attention (SA) mechanism
through an explicit surface projection to build an end-to-end-trainable model.
Specifically, the SA scheme is embedded into a two-task network to perform the
joint LA segmentation and scar quantification. Moreover, the proposed method
can alleviate the severe class-imbalance problem when detecting small and
discrete targets like scars. We evaluated the proposed framework on 60 LGE MRI
data from the MICCAI2018 LA challenge. For LA segmentation, the proposed method
reduced the mean Hausdorff distance from 36.4 mm to 20.0 mm compared to the 3D
basic U-Net using the binary cross-entropy loss. For scar quantification, the
method was compared with the results or algorithms reported in the literature
and demonstrated better performance.
- Abstract(参考訳): 本稿では,左心房(LA)空洞を同時に分割し,LAの傷跡を定量化するエンド・ツー・エンドディープニューラルネットワーク(DNN)を提案する。
このフレームワークは、距離変換マップに基づいて、空間符号化(SE)ロスを導入することにより、目標の連続的な空間情報を組み込む。
従来の2値ラベルに基づく損失と比較すると,提案手法は,深層学習に基づく手法でよく見られるセグメンテーションのノイズパッチを低減できる。
LAとLAの傷点間の空間的関係をフル活用するために, 表面投影による形状注意機構を提案し, エンド・ツー・エンド・トレーニング可能なモデルを構築した。
具体的には、SAスキームを2タスクネットワークに埋め込み、ジョイントLAセグメンテーションとスカー量子化を行う。
さらに,本手法は,傷跡などの小型で離散的なターゲットを検出する場合,重度なクラス不均衡問題を軽減できる。
提案手法をMICCAI2018 LAチャレンジから60LGE MRIデータを用いて評価した。
LAセグメンテーションでは,2進クロスエントロピー損失を用いた3次元基本U-Netと比較して平均ハウスドルフ距離を36.4mmから20.0mmに削減した。
キャラクタ定量化では,本手法を文献で報告した結果やアルゴリズムと比較し,優れた性能を示した。
関連論文リスト
- Automatically Segment the Left Atrium and Scars from LGE-MRIs Using a
Boundary-focused nnU-Net [8.27752923297381]
我々は、LA空洞を自動的に分割し、後期ガドリニウム強調磁気共鳴イメージング(LGE-MRI)によるLA傷の定量化を提案する。
具体的には、LA境界画素の焦点をトレーニング中に達成し、より正確な境界予測を提供する。
LAScarQS 2022データセットの実験では、LA空洞とLA傷痕のセグメンテーションにおいて、我々のモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2023-04-27T10:05:37Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - TC-Net: Triple Context Network for Automated Stroke Lesion Segmentation [0.5482532589225552]
本稿では,空間的コンテキスト情報を中心として,新たなネットワークである Triple Context Network (TC-Net) を提案する。
我々のネットワークはオープンデータセットATLASで評価され、最高スコアは0.594、ハウスドルフ距離は27.005mm、平均対称性表面距離は7.137mmである。
論文 参考訳(メタデータ) (2022-02-28T11:12:16Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Residual Moment Loss for Medical Image Segmentation [56.72261489147506]
位置情報は,対象物体の多様体構造を捉えた深層学習モデルに有効であることが証明された。
既存のほとんどの手法は、ネットワークが学習するために、位置情報を暗黙的にエンコードする。
セグメント化対象の位置情報を明示的に埋め込むために,新しい損失関数,すなわち残差モーメント(RM)損失を提案する。
論文 参考訳(メタデータ) (2021-06-27T09:31:49Z) - JAS-GAN: Generative Adversarial Network Based Joint Atrium and Scar
Segmentations on Unbalanced Atrial Targets [11.507811388835348]
本研究では,不均衡な心房ターゲットを識別するカスケード間対向ネットワーク,すなわち JAS-GAN を提案する。
Jas-GANは、不均衡な心房ターゲットのセグメンテーションタスクを自動的に関連付ける適応的注意カスケードを調査します。
主に、LAと心房の傷が実際のものと一致するよう、推定された共同分布を強制する。
論文 参考訳(メタデータ) (2021-05-01T12:33:02Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - AtrialJSQnet: A New Framework for Joint Segmentation and Quantification
of Left Atrium and Scars Incorporating Spatial and Shape Information [22.162571400010467]
臨床では左心房(LA)と後期ガドリニウム造影MRI(LGE MRI)の心房粗動が重要な課題である。
従来の手法は通常2つの課題を独立に解決し、LAと傷跡の固有の空間的関係を無視した。
AtrialJSQnetと呼ばれる新しいフレームワークを開発し、LAセグメンテーション、LA表面へのスカープロジェクション、およびスカーの定量化をエンドツーエンド形式で同時に行う。
論文 参考訳(メタデータ) (2020-08-11T14:44:19Z) - DSU-net: Dense SegU-net for automatic head-and-neck tumor segmentation
in MR images [30.747375849126925]
MRIにおける鼻咽頭癌(NPC)分類のためのDense SegU-net(DSU-net)フレームワークを提案する。
潜在的な消滅段階的問題に対処するために,特徴の伝播と再利用を容易にする高密度ブロックを導入する。
提案するアーキテクチャは,既存の最先端セグメンテーションネットワークよりも優れている。
論文 参考訳(メタデータ) (2020-06-11T09:33:41Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。