論文の概要: Automated segmentation of microvessels in intravascular OCT images using
deep learning
- arxiv url: http://arxiv.org/abs/2210.00166v1
- Date: Sat, 1 Oct 2022 02:14:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 14:39:57.527137
- Title: Automated segmentation of microvessels in intravascular OCT images using
deep learning
- Title(参考訳): 深層学習による血管内oct画像における微小血管の自動分割
- Authors: Juhwan Lee, Justin N. Kim, Lia Gomez-Perez, Yazan Gharaibeh, Issam
Motairek, Ga-briel T. R. Pereira, Vladislav N. Zimin, Luis A. P. Dallan,
Ammar Hoori, Sadeer Al-Kindi, Giulio Guagliumi, Hiram G. Bezerra, David L.
Wilson
- Abstract要約: 血管内光コヒーレンス断層撮影(IV OCT)画像における微小血管の自動検出法を開発した。
85病変,37病変から8,403例のOCT画像フレームを解析した。
本手法は,698枚の画像フレームに微小血管が存在するのに対し,手動による解析では730枚の画像フレームが4.4%の差を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To analyze this characteristic of vulnerability, we developed an automated
deep learning method for detecting microvessels in intravascular optical
coherence tomography (IVOCT) images. A total of 8,403 IVOCT image frames from
85 lesions and 37 normal segments were analyzed. Manual annotation was done
using a dedicated software (OCTOPUS) previously developed by our group. Data
augmentation in the polar (r,{\theta}) domain was applied to raw IVOCT images
to ensure that microvessels appear at all possible angles. Pre-processing
methods included guidewire/shadow detection, lumen segmentation, pixel
shifting, and noise reduction. DeepLab v3+ was used to segment microvessel
candidates. A bounding box on each candidate was classified as either
microvessel or non-microvessel using a shallow convolutional neural network.
For better classification, we used data augmentation (i.e., angle rotation) on
bounding boxes with a microvessel during network training. Data augmentation
and pre-processing steps improved microvessel segmentation performance
significantly, yielding a method with Dice of 0.71+/-0.10 and pixel-wise
sensitivity/specificity of 87.7+/-6.6%/99.8+/-0.1%. The network for classifying
microvessels from candidates performed exceptionally well, with sensitivity of
99.5+/-0.3%, specificity of 98.8+/-1.0%, and accuracy of 99.1+/-0.5%. The
classification step eliminated the majority of residual false positives, and
the Dice coefficient increased from 0.71 to 0.73. In addition, our method
produced 698 image frames with microvessels present, compared to 730 from
manual analysis, representing a 4.4% difference. When compared to the manual
method, the automated method improved microvessel continuity, implying improved
segmentation performance. The method will be useful for research purposes as
well as potential future treatment planning.
- Abstract(参考訳): この脆弱性の特徴を分析するために,血管内光コヒーレンス断層撮影(ivoct)画像中の微小血管を自動検出する深層学習法を開発した。
85病変から8,403個のivoct画像フレームと37個の正常セグメントを解析した。
このグループが開発した専用のソフトウェア(OCTOPUS)を使って手動アノテーションを行った。
極域(r,{\theta})領域におけるデータ拡張を生のVOCT画像に適用し、微小容器があらゆる角度に現れるようにした。
前処理にはガイドワイヤ/シャドウ検出、ルーメンセグメンテーション、ピクセルシフト、ノイズ低減などがある。
DeepLab v3+はマイクロコンテナ候補のセグメンテーションに使用された。
各候補のバウンディングボックスは、浅い畳み込みニューラルネットワークを用いてマイクロベセルまたは非マイクロベセルに分類された。
より良い分類のために,ネットワークトレーニング中にマイクロベセルを用いたバウンディングボックス上でのデータ拡張(角度回転)を行った。
データ拡張と前処理のステップはマイクロベッセルのセグメンテーション性能を大幅に改善し、dice 0.71+/-0.10の方法と87.7+/-6.6%/99.8+/-0.1%の画素感度/特異性をもたらした。
99.5+/-0.3%,特異度98.8+/-1.0%,精度99.1+/-0.5%であった。
分類ステップは残存偽陽性の多数を除去し, dice係数は0.71から0.73に増加した。
また,手作業による解析では730フレームに対して,マイクロベセルを用いた698フレームをそれぞれ4.4%の差で生成した。
手動法と比較すると,マイクロ容器の連続性が向上し,セグメンテーション性能が向上した。
この方法は研究目的や将来の治療計画に有用である。
関連論文リスト
- Deepbet: Fast brain extraction of T1-weighted MRI using Convolutional
Neural Networks [0.40125518029941076]
Deepbetは、Deepbetと呼ばれる高速で高精度な脳抽出ツールを構築する。
Deepbetは、2段階の予測プロセスで、現代的なUNetアーキテクチャであるLinkNetを使用している。
モデルは現在の方法と比較して脳の抽出を10倍に加速する。
論文 参考訳(メタデータ) (2023-08-14T08:39:09Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Corneal endothelium assessment in specular microscopy images with Fuchs'
dystrophy via deep regression of signed distance maps [48.498376125522114]
本稿では,UNetをベースとしたセグメンテーション手法を提案する。
これは、フックスのジストロフィーの全度にわたって、信頼できるCE形態計測と腸骨同定を実現する。
論文 参考訳(メタデータ) (2022-10-13T15:34:20Z) - DenseUNets with feedback non-local attention for the segmentation of
specular microscopy images of the corneal endothelium with Fuchs dystrophy [2.4242495790574217]
フィードバック非局所的注意(fNLA)と呼ばれる新しい注意機構を含む新しい深層学習手法を提案する。
我々のアプローチはまず、まず細胞縁を推測し、次に検出された細胞を選択し、最後に間違いを正すために後処理法を適用します。
提案手法は,大腸に被覆された領域を廃棄しながら,小腸に閉鎖された細胞縁を検出することで,腸の影響を受ける細胞を極めて良好に処理した。
論文 参考訳(メタデータ) (2022-03-03T17:49:40Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Automated Chest CT Image Segmentation of COVID-19 Lung Infection based
on 3D U-Net [0.0]
新型コロナウイルス(COVID-19)は世界中の何十億もの生命に影響を与え、公衆医療に大きな影響を与えている。
新型コロナウイルス感染地域のための革新的な自動セグメンテーションパイプラインを提案する。
本手法は,複数の前処理手法を実行することにより,一意およびランダムな画像パッチをオンザフライで生成する訓練に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-24T17:29:26Z) - COVIDLite: A depth-wise separable deep neural network with white balance
and CLAHE for detection of COVID-19 [1.1139113832077312]
COVIDLiteは、CLAHE(Contrast Limited Adaptive Histogram Equalization)とDSCNN(Deep-wise Separable Convolutional Neural Network)を組み合わせたホワイトバランスである。
提案したCOVIDLite法は,前処理のないバニラDSCNNと比較して性能が向上した。
提案手法は,2進分類では99.58%,多進分類では96.43%,最先端手法では96.43%であった。
論文 参考訳(メタデータ) (2020-06-19T02:30:34Z) - Coronavirus (COVID-19) Classification using Deep Features Fusion and
Ranking Technique [0.0]
新型コロナウイルスを早期に検出するために, 深部特徴を融合・ランク付けする手法が提案された。
提案手法は, 98.27%の精度, 98.93%の感度, 97.60%の特異性, 97.63%の精度, 98.28%のF1スコア, 96.54%のマシューズ相関係数(MCC)測定値を示す。
論文 参考訳(メタデータ) (2020-04-07T20:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。