論文の概要: A Deep Learning-based Method to Extract Lumen and Media-Adventitia in
Intravascular Ultrasound Images
- arxiv url: http://arxiv.org/abs/2102.10480v1
- Date: Sun, 21 Feb 2021 00:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 03:38:13.752850
- Title: A Deep Learning-based Method to Extract Lumen and Media-Adventitia in
Intravascular Ultrasound Images
- Title(参考訳): 血管内超音波画像におけるlumenおよびmedia-adventitiaの深層学習による抽出法
- Authors: Fubao Zhu, Zhengyuan Gao, Chen Zhao, Hanlei Zhu, Yong Dong, Jingfeng
Jiang, Neng Dai, Weihua Zhou
- Abstract要約: 血管内超音波(IVUS)による冠動脈壁の直接の可視化が可能。
現在のセグメンテーションは、時間とユーザ依存のマニュアル操作に依存している。
本稿では,エンコーダ・デコーダ深層アーキテクチャを用いた深層学習に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 3.2963079183841297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intravascular ultrasound (IVUS) imaging allows direct visualization of the
coronary vessel wall and is suitable for the assessment of atherosclerosis and
the degree of stenosis. Accurate segmentation and measurements of lumen and
median-adventitia (MA) from IVUS are essential for such a successful clinical
evaluation. However, current segmentation relies on manual operations, which is
time-consuming and user-dependent. In this paper, we aim to develop a deep
learning-based method using an encoder-decoder deep architecture to
automatically extract both lumen and MA border. Our method named IVUS-U-Net++
is an extension of the well-known U-Net++ model. More specifically, a feature
pyramid network was added to the U-Net++ model, enabling the utilization of
feature maps at different scales. As a result, the accuracy of the probability
map and subsequent segmentation have been improved We collected 1746 IVUS
images from 18 patients in this study. The whole dataset was split into a
training dataset (1572 images) for the 10-fold cross-validation and a test
dataset (174 images) for evaluating the performance of models. Our IVUS-U-Net++
segmentation model achieved a Jaccard measure (JM) of 0.9412, a Hausdorff
distance (HD) of 0.0639 mm for the lumen border, and a JM of 0.9509, an HD of
0.0867 mm for the MA border, respectively. Moreover, the Pearson correlation
and Bland-Altman analyses were performed to evaluate the correlations of 12
clinical parameters measured from our segmentation results and the ground
truth, and automatic measurements agreed well with those from the ground truth
(all Ps<0.01). In conclusion, our preliminary results demonstrate that the
proposed IVUS-U-Net++ model has great promise for clinical use.
- Abstract(参考訳): 血管内超音波検査(IVUS)は冠動脈壁の直接の可視化を可能にし,動脈硬化の評価と狭窄度に適している。
このような臨床評価には、IVUSのルーメンと中性アドベンチア(MA)の正確なセグメンテーションと測定が不可欠です。
しかし、現在のセグメンテーションは、時間とユーザ依存のマニュアル操作に依存している。
本稿では,lumen と ma の境界を自動抽出するエンコーダ・デコーダ深層アーキテクチャを用いた深層学習に基づく手法を提案する。
IVUS-U-Net++というメソッドは、よく知られたU-Net++モデルの拡張です。
より具体的には、U-Net++モデルに機能ピラミッドネットワークが追加され、さまざまなスケールで機能マップの利用が可能になった。
その結果、確率マップの精度とその後のセグメンテーションが改善されました。この研究では18人の患者から1746個のIVUS画像を集めました。
データセット全体を10倍のクロスバリデーションのためのトレーニングデータセット(1572イメージ)と、モデルのパフォーマンスを評価するテストデータセット(174イメージ)に分割した。
我々のivus-u-net++セグメンテーションモデルは、jaccard測度 (jm) が 0.9412、ハウスドルフ距離 (hd) が 0.0639 mm、jmが 0.9509、それぞれma境界が 0.0867 mmであった。
また,Pearson相関とBland-Altman相関解析により,セグメント化結果から測定した12の臨床パラメータと地上真理との相関性を評価し,地上真理(全Ps<0.01)と自動測定が一致した。
以上の結果から,提案したIVUS-U-Net++モデルが臨床応用に大いに期待できることが示唆された。
関連論文リスト
- SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - A novel open-source ultrasound dataset with deep learning benchmarks for
spinal cord injury localization and anatomical segmentation [1.02101998415327]
ブタ脊髄の矢状切片からなる10,223モード(Bモード)画像の超音波データセットを提案する。
損傷部位をローカライズするために,いくつかの最先端オブジェクト検出アルゴリズムの性能指標をベンチマークした。
ヒトの超音波脊髄画像におけるセグメンテーションモデルのゼロショット一般化能力を評価する。
論文 参考訳(メタデータ) (2024-09-24T20:22:59Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - A quality assurance framework for real-time monitoring of deep learning
segmentation models in radiotherapy [3.5752677591512487]
この研究は、品質保証フレームワークを確立するために、心臓のサブ構造セグメンテーションを例として用いている。
心電図(CT)画像と241例の心電図を用いたベンチマークデータセットを収集した。
訓練されたDenoising Autoencoder(DAE)と2つの手動特徴を利用して画像領域シフト検出器を開発した。
Dice similarity coefficient (DSC) を用いて患者ごとのセグメンテーション精度を予測するための回帰モデルを構築した。
論文 参考訳(メタデータ) (2023-05-19T14:51:05Z) - Deep learning-based detection of intravenous contrast in computed
tomography scans [0.7313653675718069]
CTスキャンにおける静脈内(IV)コントラストの同定は、モデル開発と試験のためのデータキュレーションの鍵となる要素である。
我々は,CTスキャン内でIVコントラストを識別するCNNベースのディープラーニングプラットフォームを開発し,検証した。
論文 参考訳(メタデータ) (2021-10-16T00:46:45Z) - Systematic Clinical Evaluation of A Deep Learning Method for Medical
Image Segmentation: Radiosurgery Application [48.89674088331313]
3次元医用画像分割作業において,Deep Learning (DL) 手法を体系的に評価した。
本手法は放射線外科治療プロセスに統合され,臨床ワークフローに直接影響を及ぼす。
論文 参考訳(メタデータ) (2021-08-21T16:15:40Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z) - A Deep Learning-Based Method for Automatic Segmentation of Proximal
Femur from Quantitative Computed Tomography Images [5.731199807877257]
我々は、エンドツーエンドの完全畳み込みニューラルネットワーク(CNN)であるV on-Netに基づく3次元画像分割法を開発した。
提案手法の有効性を評価する実験を行った。
論文 参考訳(メタデータ) (2020-06-09T21:16:47Z) - Deep Learning Based Detection and Localization of Intracranial Aneurysms
in Computed Tomography Angiography [5.973882600944421]
初期動脈瘤検出のための3D領域提案ネットワークと偽陽性縮小のための3D DenseNetという2段階モデルが実装された。
本モデルでは,0.25FPPV,最高F-1スコアと比較すると,統計的に高い精度,感度,特異性を示した。
論文 参考訳(メタデータ) (2020-05-22T10:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。