論文の概要: Deep learning-based detection of intravenous contrast in computed
tomography scans
- arxiv url: http://arxiv.org/abs/2110.08424v1
- Date: Sat, 16 Oct 2021 00:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 15:37:31.973851
- Title: Deep learning-based detection of intravenous contrast in computed
tomography scans
- Title(参考訳): 深層学習によるct画像中の静脈内コントラストの検出
- Authors: Zezhong Ye, Jack M. Qian, Ahmed Hosny, Roman Zeleznik, Deborah Plana,
Jirapat Likitlersuang, Zhongyi Zhang, Raymond H. Mak, Hugo J. W. L. Aerts,
Benjamin H. Kann
- Abstract要約: CTスキャンにおける静脈内(IV)コントラストの同定は、モデル開発と試験のためのデータキュレーションの鍵となる要素である。
我々は,CTスキャン内でIVコントラストを識別するCNNベースのディープラーニングプラットフォームを開発し,検証した。
- 参考スコア(独自算出の注目度): 0.7313653675718069
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Purpose: Identifying intravenous (IV) contrast use within CT scans is a key
component of data curation for model development and testing. Currently, IV
contrast is poorly documented in imaging metadata and necessitates manual
correction and annotation by clinician experts, presenting a major barrier to
imaging analyses and algorithm deployment. We sought to develop and validate a
convolutional neural network (CNN)-based deep learning (DL) platform to
identify IV contrast within CT scans. Methods: For model development and
evaluation, we used independent datasets of CT scans of head, neck (HN) and
lung cancer patients, totaling 133,480 axial 2D scan slices from 1,979 CT scans
manually annotated for contrast presence by clinical experts. Five different DL
models were adopted and trained in HN training datasets for slice-level
contrast detection. Model performances were evaluated on a hold-out set and on
an independent validation set from another institution. DL models was then
fine-tuned on chest CT data and externally validated on a separate chest CT
dataset. Results: Initial DICOM metadata tags for IV contrast were missing or
erroneous in 1,496 scans (75.6%). The EfficientNetB4-based model showed the
best overall detection performance. For HN scans, AUC was 0.996 in the internal
validation set (n = 216) and 1.0 in the external validation set (n = 595). The
fine-tuned model on chest CTs yielded an AUC: 1.0 for the internal validation
set (n = 53), and AUC: 0.980 for the external validation set (n = 402).
Conclusion: The DL model could accurately detect IV contrast in both HN and
chest CT scans with near-perfect performance.
- Abstract(参考訳): 目的:ctスキャンにおける静脈内コントラスト(iv)の同定は、モデルの開発とテストのためのデータキュレーションの重要なコンポーネントである。
現在、IVコントラストは画像メタデータに乏しく、臨床の専門家による手動補正とアノテーションが必要であり、画像解析とアルゴリズムの展開に大きな障壁が提示されている。
我々は、CTスキャン内でIVコントラストを特定するために、畳み込みニューラルネットワーク(CNN)ベースのディープラーニング(DL)プラットフォームを開発し、検証しようとした。
方法: 頭部, 頸部 (HN) および肺がん患者のCTスキャンの独立したデータセットを用いて, 臨床専門医が手動で注記した1,979個のCTスキャンから133,480個の軸方向2Dスキャンスライスを行った。
5種類の異なるDLモデルを採用し,HNトレーニングデータセットを用いてスライスレベルのコントラスト検出を行った。
モデル性能は、ホールドアウトセットと、他の機関の独立した検証セットで評価された。
DLモデルは胸部CTデータに基づいて微調整され、胸部CTデータセットで外部検証された。
結果:IVコントラストのDICOMメタデータタグが1,496スキャン(75.6%)で欠落または誤検出された。
EfficientNetB4ベースのモデルでは、全体的な検出性能が最も優れていた。
HNスキャンでは、AUCは内部検証セット(n = 216)で0.996、外部検証セット(n = 595)では1.0であった。
胸部ctの微調整されたモデルでは、内部検証セット (n = 53) に対する auc: 1.0 と外部検証セット (n = 402) に対する auc: 0.980 が得られた。
結論: DLモデルでは, HNおよび胸部CTにおけるIVコントラストをほぼ完全に検出できた。
関連論文リスト
- CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - An Ensemble of 2.5D ResUnet Based Models for Segmentation for Kidney and
Masses [5.488270456927515]
CTスキャンによる腎, 腎腫瘍, 腎嚢胞の自動分離は, 課題である。
2.5D ResUnetは、CTスキャンの厚さの広い範囲と不均衡分布を考慮して、効率的な粗大なセマンティックセマンティックセグメンテーションフレームワークを構築するために採用されている。
論文 参考訳(メタデータ) (2023-11-27T07:24:50Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Robust Automated Framework for COVID-19 Disease Identification from a
Multicenter Dataset of Chest CT Scans [27.29759500174996]
提案モデルでは,特定の走査プロトコルを用いて,1つのイメージングセンタのみから取得した比較的小さなデータセットに基づいてトレーニングを行った。
また、列車とテストセット間のデータシフトに対処するため、教師なしアプローチでモデルを更新できることを示した。
実験の結果,提案手法は全テストセットに対して96.15%の精度で良好に動作することがわかった。
論文 参考訳(メタデータ) (2021-09-19T22:32:55Z) - Semi-supervised learning for generalizable intracranial hemorrhage
detection and segmentation [0.0]
本研究は頭蓋内出血の検出・分節化のための半教師付き学習モデルの開発と評価である。
最初の「教師」ディープラーニングモデルは、2010年から2017年にかけて米国のある機関から収集された457ピクセルの頭部CTスキャンに基づいて訓練された。
2つ目の"学生"モデルは、このピクセルラベル付きデータセットと擬似ラベル付きデータセットの組み合わせでトレーニングされた。
論文 参考訳(メタデータ) (2021-05-03T00:14:43Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Comprehensive Comparison of Deep Learning Models for Lung and COVID-19
Lesion Segmentation in CT scans [11.024688703207627]
本稿では,CT(Computerized Tomography)スキャンにおいて,肺の深層学習モデルとCOVID-19病変のセグメンテーションを比較した。
4つのDLアーキテクチャ(Unet, Linknet, FPN, PSPNet)と25のランダムおよび事前訓練エンコーダを組み合わせて200の試験モデルを構築する。
肺の分節, 病変の分節, 病変の分節の3つの実験を, オリジナルの肺マスクを用いて行った。
論文 参考訳(メタデータ) (2020-09-10T08:05:06Z) - COVIDNet-CT: A Tailored Deep Convolutional Neural Network Design for
Detection of COVID-19 Cases from Chest CT Images [75.74756992992147]
我々は、胸部CT画像からCOVID-19の症例を検出するのに適した、深層畳み込みニューラルネットワークアーキテクチャであるCOVIDNet-CTを紹介した。
また,中国生体情報センターが収集したCT画像データから得られたベンチマークCT画像データセットであるCOVIDx-CTも紹介した。
論文 参考訳(メタデータ) (2020-09-08T15:49:55Z) - Study of Different Deep Learning Approach with Explainable AI for
Screening Patients with COVID-19 Symptoms: Using CT Scan and Chest X-ray
Image Dataset [1.4680035572775532]
新型コロナウイルスの感染拡大で、米国だけでもこれまでに10万人以上の死者が出た。
患者数の増加に伴い、利用可能なテストキットでテストを実施するのが難しくなっている。
本研究の目的は、CTスキャンと胸部X線画像データセットの両方において、より正確な精度で新型コロナウイルス患者を検出できるディープラーニングベースのモデルを開発することである。
論文 参考訳(メタデータ) (2020-07-24T13:51:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。