論文の概要: Using Spatio-Temporal Dual-Stream Network with Self-Supervised Learning
for Lung Tumor Classification on Radial Probe Endobronchial Ultrasound Video
- arxiv url: http://arxiv.org/abs/2305.02719v1
- Date: Thu, 4 May 2023 10:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 16:00:51.631344
- Title: Using Spatio-Temporal Dual-Stream Network with Self-Supervised Learning
for Lung Tumor Classification on Radial Probe Endobronchial Ultrasound Video
- Title(参考訳): 心内膜超音波による肺腫瘍分類のための自己監督学習を用いた時空間デュアルストリームネットワーク
- Authors: Ching-Kai Lin, Chin-Wen Chen, Yun-Chien Cheng
- Abstract要約: 肺がんの生検の過程で、医師はリアルタイム超音波画像を使用して、サンプリングに適した病変を見つける。
これまでの研究では良性肺病変と悪性肺病変を効果的に区別するために2D畳み込みニューラルネットワークを用いてきた。
本研究では,3次元ニューラルネットワークに基づく自動診断システムを設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The purpose of this study is to develop a computer-aided diagnosis system for
classifying benign and malignant lung lesions, and to assist physicians in
real-time analysis of radial probe endobronchial ultrasound (EBUS) videos.
During the biopsy process of lung cancer, physicians use real-time ultrasound
images to find suitable lesion locations for sampling. However, most of these
images are difficult to classify and contain a lot of noise. Previous studies
have employed 2D convolutional neural networks to effectively differentiate
between benign and malignant lung lesions, but doctors still need to manually
select good-quality images, which can result in additional labor costs. In
addition, the 2D neural network has no ability to capture the temporal
information of the ultrasound video, so it is difficult to obtain the
relationship between the features of the continuous images. This study designs
an automatic diagnosis system based on a 3D neural network, uses the SlowFast
architecture as the backbone to fuse temporal and spatial features, and uses
the SwAV method of contrastive learning to enhance the noise robustness of the
model. The method we propose includes the following advantages, such as (1)
using clinical ultrasound films as model input, thereby reducing the need for
high-quality image selection by physicians, (2) high-accuracy classification of
benign and malignant lung lesions can assist doctors in clinical diagnosis and
reduce the time and risk of surgery, and (3) the capability to classify well
even in the presence of significant image noise. The AUC, accuracy, precision,
recall and specificity of our proposed method on the validation set reached
0.87, 83.87%, 86.96%, 90.91% and 66.67%, respectively. The results have
verified the importance of incorporating temporal information and the
effectiveness of using the method of contrastive learning on feature
extraction.
- Abstract(参考訳): 本研究の目的は,良性肺病変と悪性肺病変を分類するコンピュータ支援診断システムの開発と,ラジアルプローブ内気管支超音波(ebus)映像のリアルタイム解析を支援することである。
肺癌の生検の過程において、医師は超音波画像を用いて検体に適した部位を見つける。
しかし、これらの画像の多くは分類が難しく、ノイズが多く含まれている。
これまでの研究では、良性肺病変と悪性肺病変を効果的に区別するために2次元畳み込みニューラルネットワークを使用してきたが、医師は高品質な画像を手作業で選択する必要があるため、追加の労働コストが発生する可能性がある。
また, 2次元ニューラルネットワークは, 超音波映像の時間情報を取り込むことができないため, 連続画像の特徴の関係を得ることは困難である。
本研究では,3次元ニューラルネットワークに基づく自動診断システムを設計し,SlowFastアーキテクチャを背骨として時間的特徴と空間的特徴を融合させ,SwaV法によるコントラスト学習を用いてモデルのノイズロバスト性を高める。
本手法は,(1)臨床用超音波フィルムをモデル入力として使用することにより,医師による高品質な画像選択の必要性を低減し,(2)良性および悪性の肺病変の高精度分類が臨床診断における医師の助けとなり,手術の時間とリスクを低減し,(3)有意な画像ノイズの存在下でも適切に分類できるという利点を含む。
検証セットにおける提案手法のauc,精度,リコール,特異度はそれぞれ0.87,83.87%,86.96%,90.91%,66.67%であった。
その結果,時間情報を取り込むことの重要性と,特徴抽出におけるコントラスト学習法の有効性が検証された。
関連論文リスト
- CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Two-Stage Deep Learning Framework for Quality Assessment of Left Atrial
Late Gadolinium Enhanced MRI Images [0.22585387137796725]
LGE-MRI画像の自動診断品質評価のための2段階のディープラーニング手法を提案する。
本発明の方法は、関連する領域にフォーカスする左心房検出器と、診断品質を評価するディープネットワークとを含む。
論文 参考訳(メタデータ) (2023-10-13T01:27:36Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Intra-operative Brain Tumor Detection with Deep Learning-Optimized
Hyperspectral Imaging [37.21885467891782]
グリオーマ(内因性脳腫瘍)の手術は、病変の浸潤性により困難である。
リアルタイム, 術中, ラベルフリー, 広視野の道具は使用できない。
術中指導の可能性を秘めた癌切除のための深層学習型診断ツールを構築した。
論文 参考訳(メタデータ) (2023-02-06T15:52:03Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - The interpretation of endobronchial ultrasound image using 3D
convolutional neural network for differentiating malignant and benign
mediastinal lesions [3.0969191504482247]
本研究の目的は,内胚葉超音波(EBUS)画像を用いて悪性病変と良性病変を鑑別することである。
我々のモデルはノイズに耐性があり、EBUSビデオの様々な画像特徴と願望を融合させることができる。
論文 参考訳(メタデータ) (2021-07-29T08:38:17Z) - Computer-aided Tumor Diagnosis in Automated Breast Ultrasound using 3D
Detection Network [18.31577982955252]
良性腫瘍145例,悪性腫瘍273例の418例を対象に,本ネットワークの有効性を検証した。
実験により, ネットワークの感度は97.66%, 1.23偽陽性 (FPs) であり, 曲線(AUC) 値0.8720以下の領域を有することがわかった。
論文 参考訳(メタデータ) (2020-07-31T15:25:07Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。