論文の概要: Scout-Net: Prospective Personalized Estimation of CT Organ Doses from
Scout Views
- arxiv url: http://arxiv.org/abs/2312.15354v1
- Date: Sat, 23 Dec 2023 21:33:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:27:17.585421
- Title: Scout-Net: Prospective Personalized Estimation of CT Organ Doses from
Scout Views
- Title(参考訳): Scout-Net: スカウト視点によるCT臓器量の推定
- Authors: Abdullah-Al-Zubaer Imran, Sen Wang, Debashish Pal, Sandeep Dutta,
Bhavik Patel, Evan Zucker, Adam Wang
- Abstract要約: 我々は,CTスキャンのリアルタイム,患者特異的,臓器レベルのドシメトリ推定を行うために,エンドツーエンド,完全自動ディープラーニングソリューションを提案する。
提案したScout-Netモデルと実際のCTデータとを比較検討し,臓器線量推定の有効性を実時間で検証した。
- 参考スコア(独自算出の注目度): 5.072398805780053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Estimation of patient-specific organ doses is required for more
comprehensive dose metrics, such as effective dose. Currently, available
methods are performed retrospectively using the CT images themselves, which can
only be done after the scan. To optimize CT acquisitions before scanning, rapid
prediction of patient-specific organ dose is needed prospectively, using
available scout images. We, therefore, devise an end-to-end, fully-automated
deep learning solution to perform real-time, patient-specific, organ-level
dosimetric estimation of CT scans.
Approach: We propose the Scout-Net model for CT dose prediction at six
different organs as well as for the overall patient body, leveraging the
routinely obtained frontal and lateral scout images of patients, before their
CT scans. To obtain reference values of the organ doses, we used Monte Carlo
simulation and 3D segmentation methods on the corresponding CT images of the
patients.
Results: We validate our proposed Scout-Net model against real patient CT
data and demonstrate the effectiveness in estimating organ doses in real-time
(only 27 ms on average per scan). Additionally, we demonstrate the efficiency
(real-time execution), sufficiency (reasonable error rates), and robustness
(consistent across varying patient sizes) of the Scout-Net model.
Conclusions: An effective, efficient, and robust Scout-Net model, once
incorporated into the CT acquisition plan, could potentially guide the
automatic exposure control for balanced image quality and radiation dose.
- Abstract(参考訳): 目的: 有効用量などのより包括的な用量測定には, 患者固有の臓器用量の推定が必要である。
現在、利用可能な方法はCT画像自体を使用して振り返りに行われており、スキャン後にのみ実行できる。
スキャン前のCT取得を最適化するためには,スカウト画像を用いて患者固有の臓器投与量の迅速予測が必要である。
そこで我々は,CTスキャンのリアルタイム,患者固有の,臓器レベルのドシメトリ推定を行うために,エンドツーエンドで完全に自動化されたディープラーニングソリューションを考案した。
アプローチ:scout-netモデルを用いて6つの異なる臓器および全身におけるct線量予測を行い,ctスキャン前の患者の前側および外側のスカウティング画像を活用する。
臓器ドレナージの基準値を得るためにはモンテカルロシミュレーションと3次元分割法を患者のCT画像に用いた。
結果: 提案するスカウティングネットモデルが実際のctデータに対して有効であることを検証し, 臓器線量(スキャン平均27ms)をリアルタイムに推定する効果を実証した。
さらに,scout-netモデルの効率性(リアルタイム実行),不十分性(合理的なエラー率),堅牢性(さまざまな患者サイズにまたがる)を示す。
結論:CT取得計画に組み込まれた効果的な、効率的で堅牢なScout-Netモデルは、バランスの取れた画像品質と放射線線量の自動露光制御を導く可能性がある。
関連論文リスト
- Predicting Thrombectomy Recanalization from CT Imaging Using Deep Learning Models [4.780704816027884]
術前CTとCTA画像を用いて,患者の再石灰化スコアの完全自動予測を提案した。
我々のトップモデルは平均クロスバリデードROC-AUC 77.33 $pm$3.9%を達成した。
論文 参考訳(メタデータ) (2023-02-08T15:41:21Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - CT-SGAN: Computed Tomography Synthesis GAN [4.765541373485143]
胸部CTスキャンの小さなデータセットを用いて,大規模な3次元合成CTスキャンボリュームを生成するCT-SGANモデルを提案する。
その結果,CT-SGANは大量の合成データに基づいて結節を事前訓練することにより,肺検出精度を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-10-14T22:20:40Z) - Comprehensive Validation of Automated Whole Body Skeletal Muscle,
Adipose Tissue, and Bone Segmentation from 3D CT images for Body Composition
Analysis: Towards Extended Body Composition [0.6176955945418618]
ディープラーニングのような強力な人工知能のツールは、3D画像全体を分割し、すべての内部解剖の正確な測定を生成することができるようになった。
これにより、これまで存在した深刻なボトルネック、すなわち手動セグメンテーションの必要性の克服が可能になる。
これらの測定は不可能であったため、フィールドを非常に小さく限られたサブセットに制限した。
論文 参考訳(メタデータ) (2021-06-01T17:30:45Z) - CoRSAI: A System for Robust Interpretation of CT Scans of COVID-19
Patients Using Deep Learning [133.87426554801252]
我々は,深部畳み込み神経網のアンサンブルを用いた肺CTスキャンのセグメンテーションによるアプローチを採用した。
本モデルを用いて, 病変の分類, 患者の動態の評価, 病変による肺の相対体積の推定, 肺の損傷ステージの評価が可能となった。
論文 参考訳(メタデータ) (2021-05-25T12:06:55Z) - Multitask 3D CBCT-to-CT Translation and Organs-at-Risk Segmentation
Using Physics-Based Data Augmentation [4.3971310109651665]
現在の臨床実践では、放射線治療中の患者設定にのみ、ノイズとアーティファクトを付加した毎週のコーンビームCT画像が用いられる。
治療計画には, 高画質計画ct (pct) 画像とoars ( organ-at-risk) 構造の手輪郭を用いて, 治療開始時に一度行う。
OAR構造を同時にセグメンテーションしながら毎週CBCT画像の品質を向上させることができれば、放射線治療中の治療適応や治療応答のためのバイオマーカーの抽出に重要な情報を提供することができる。
論文 参考訳(メタデータ) (2021-03-09T19:51:44Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - M3Lung-Sys: A Deep Learning System for Multi-Class Lung Pneumonia
Screening from CT Imaging [85.00066186644466]
マルチタスク型マルチスライス深層学習システム(M3Lung-Sys)を提案する。
COVID-19とHealthy, H1N1, CAPとの鑑別に加えて, M3 Lung-Sysも関連病変の部位を特定できる。
論文 参考訳(メタデータ) (2020-10-07T06:22:24Z) - COVIDNet-CT: A Tailored Deep Convolutional Neural Network Design for
Detection of COVID-19 Cases from Chest CT Images [75.74756992992147]
我々は、胸部CT画像からCOVID-19の症例を検出するのに適した、深層畳み込みニューラルネットワークアーキテクチャであるCOVIDNet-CTを紹介した。
また,中国生体情報センターが収集したCT画像データから得られたベンチマークCT画像データセットであるCOVIDx-CTも紹介した。
論文 参考訳(メタデータ) (2020-09-08T15:49:55Z) - iPhantom: a framework for automated creation of individualized
computational phantoms and its application to CT organ dosimetry [58.943644554192936]
本研究の目的は、患者固有の幻覚やデジタル双眼鏡の自動作成のための新しいフレームワーク、iPhantomを開発し、検証することである。
この枠組みは、個々の患者のCT画像における放射線感受性臓器への放射線線量を評価するために応用される。
iPhantomは、アンカーオルガンのDice similarity Coefficients (DSC) >0.6の精度で全ての臓器の位置を正確に予測し、他のオルガンのDSCは0.3-0.9である。
論文 参考訳(メタデータ) (2020-08-20T01:50:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。