論文の概要: A Deep Learning-based Method to Extract Lumen and Media-Adventitia in
Intravascular Ultrasound Images
- arxiv url: http://arxiv.org/abs/2102.10480v1
- Date: Sun, 21 Feb 2021 00:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 03:38:13.752850
- Title: A Deep Learning-based Method to Extract Lumen and Media-Adventitia in
Intravascular Ultrasound Images
- Title(参考訳): 血管内超音波画像におけるlumenおよびmedia-adventitiaの深層学習による抽出法
- Authors: Fubao Zhu, Zhengyuan Gao, Chen Zhao, Hanlei Zhu, Yong Dong, Jingfeng
Jiang, Neng Dai, Weihua Zhou
- Abstract要約: 血管内超音波(IVUS)による冠動脈壁の直接の可視化が可能。
現在のセグメンテーションは、時間とユーザ依存のマニュアル操作に依存している。
本稿では,エンコーダ・デコーダ深層アーキテクチャを用いた深層学習に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 3.2963079183841297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intravascular ultrasound (IVUS) imaging allows direct visualization of the
coronary vessel wall and is suitable for the assessment of atherosclerosis and
the degree of stenosis. Accurate segmentation and measurements of lumen and
median-adventitia (MA) from IVUS are essential for such a successful clinical
evaluation. However, current segmentation relies on manual operations, which is
time-consuming and user-dependent. In this paper, we aim to develop a deep
learning-based method using an encoder-decoder deep architecture to
automatically extract both lumen and MA border. Our method named IVUS-U-Net++
is an extension of the well-known U-Net++ model. More specifically, a feature
pyramid network was added to the U-Net++ model, enabling the utilization of
feature maps at different scales. As a result, the accuracy of the probability
map and subsequent segmentation have been improved We collected 1746 IVUS
images from 18 patients in this study. The whole dataset was split into a
training dataset (1572 images) for the 10-fold cross-validation and a test
dataset (174 images) for evaluating the performance of models. Our IVUS-U-Net++
segmentation model achieved a Jaccard measure (JM) of 0.9412, a Hausdorff
distance (HD) of 0.0639 mm for the lumen border, and a JM of 0.9509, an HD of
0.0867 mm for the MA border, respectively. Moreover, the Pearson correlation
and Bland-Altman analyses were performed to evaluate the correlations of 12
clinical parameters measured from our segmentation results and the ground
truth, and automatic measurements agreed well with those from the ground truth
(all Ps<0.01). In conclusion, our preliminary results demonstrate that the
proposed IVUS-U-Net++ model has great promise for clinical use.
- Abstract(参考訳): 血管内超音波検査(IVUS)は冠動脈壁の直接の可視化を可能にし,動脈硬化の評価と狭窄度に適している。
このような臨床評価には、IVUSのルーメンと中性アドベンチア(MA)の正確なセグメンテーションと測定が不可欠です。
しかし、現在のセグメンテーションは、時間とユーザ依存のマニュアル操作に依存している。
本稿では,lumen と ma の境界を自動抽出するエンコーダ・デコーダ深層アーキテクチャを用いた深層学習に基づく手法を提案する。
IVUS-U-Net++というメソッドは、よく知られたU-Net++モデルの拡張です。
より具体的には、U-Net++モデルに機能ピラミッドネットワークが追加され、さまざまなスケールで機能マップの利用が可能になった。
その結果、確率マップの精度とその後のセグメンテーションが改善されました。この研究では18人の患者から1746個のIVUS画像を集めました。
データセット全体を10倍のクロスバリデーションのためのトレーニングデータセット(1572イメージ)と、モデルのパフォーマンスを評価するテストデータセット(174イメージ)に分割した。
我々のivus-u-net++セグメンテーションモデルは、jaccard測度 (jm) が 0.9412、ハウスドルフ距離 (hd) が 0.0639 mm、jmが 0.9509、それぞれma境界が 0.0867 mmであった。
また,Pearson相関とBland-Altman相関解析により,セグメント化結果から測定した12の臨床パラメータと地上真理との相関性を評価し,地上真理(全Ps<0.01)と自動測定が一致した。
以上の結果から,提案したIVUS-U-Net++モデルが臨床応用に大いに期待できることが示唆された。
関連論文リスト
- Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - A quality assurance framework for real-time monitoring of deep learning
segmentation models in radiotherapy [3.5752677591512487]
この研究は、品質保証フレームワークを確立するために、心臓のサブ構造セグメンテーションを例として用いている。
心電図(CT)画像と241例の心電図を用いたベンチマークデータセットを収集した。
訓練されたDenoising Autoencoder(DAE)と2つの手動特徴を利用して画像領域シフト検出器を開発した。
Dice similarity coefficient (DSC) を用いて患者ごとのセグメンテーション精度を予測するための回帰モデルを構築した。
論文 参考訳(メタデータ) (2023-05-19T14:51:05Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Deep learning-based detection of intravenous contrast in computed
tomography scans [0.7313653675718069]
CTスキャンにおける静脈内(IV)コントラストの同定は、モデル開発と試験のためのデータキュレーションの鍵となる要素である。
我々は,CTスキャン内でIVコントラストを識別するCNNベースのディープラーニングプラットフォームを開発し,検証した。
論文 参考訳(メタデータ) (2021-10-16T00:46:45Z) - Systematic Clinical Evaluation of A Deep Learning Method for Medical
Image Segmentation: Radiosurgery Application [48.89674088331313]
3次元医用画像分割作業において,Deep Learning (DL) 手法を体系的に評価した。
本手法は放射線外科治療プロセスに統合され,臨床ワークフローに直接影響を及ぼす。
論文 参考訳(メタデータ) (2021-08-21T16:15:40Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z) - A Deep Learning-Based Method for Automatic Segmentation of Proximal
Femur from Quantitative Computed Tomography Images [5.731199807877257]
我々は、エンドツーエンドの完全畳み込みニューラルネットワーク(CNN)であるV on-Netに基づく3次元画像分割法を開発した。
提案手法の有効性を評価する実験を行った。
論文 参考訳(メタデータ) (2020-06-09T21:16:47Z) - Deep Learning Based Detection and Localization of Intracranial Aneurysms
in Computed Tomography Angiography [5.973882600944421]
初期動脈瘤検出のための3D領域提案ネットワークと偽陽性縮小のための3D DenseNetという2段階モデルが実装された。
本モデルでは,0.25FPPV,最高F-1スコアと比較すると,統計的に高い精度,感度,特異性を示した。
論文 参考訳(メタデータ) (2020-05-22T10:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。