論文の概要: Improving image quality of sparse-view lung tumor CT images with U-Net
- arxiv url: http://arxiv.org/abs/2307.15506v4
- Date: Wed, 14 Feb 2024 15:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 19:48:58.608670
- Title: Improving image quality of sparse-view lung tumor CT images with U-Net
- Title(参考訳): U-Netを用いたスパースビュー肺腫瘍CT画像の画質向上
- Authors: Annika Ries, Tina Dorosti, Johannes Thalhammer, Daniel Sasse, Andreas
Sauter, Felix Meurer, Ashley Benne, Tobias Lasser, Franz Pfeiffer, Florian
Schaff, Daniela Pfeiffer
- Abstract要約: 肺転移検出のためのU-Netを用いて,スパースビューCT画像の画質向上を目的とした。
プロジェクションビューは、IQを維持しながら2,048から64に減少し、良好なレベルで放射線学者の信頼性を維持することができる。
- 参考スコア(独自算出の注目度): 3.5655865803527718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: We aimed at improving image quality (IQ) of sparse-view computed
tomography (CT) images using a U-Net for lung metastasis detection and
determining the best tradeoff between number of views, IQ, and diagnostic
confidence.
Methods: CT images from 41 subjects aged 62.8 $\pm$ 10.6 years (mean $\pm$
standard deviation), 23 men, 34 with lung metastasis, 7 healthy, were
retrospectively selected (2016-2018) and forward projected onto 2,048-view
sinograms. Six corresponding sparse-view CT data subsets at varying levels of
undersampling were reconstructed from sinograms using filtered backprojection
with 16, 32, 64, 128, 256, and 512 views. A dual-frame U-Net was trained and
evaluated for each subsampling level on 8,658 images from 22 diseased subjects.
A representative image per scan was selected from 19 subjects (12 diseased, 7
healthy) for a single-blinded multireader study. These slices, for all levels
of subsampling, with and without U-Net postprocessing, were presented to three
readers. IQ and diagnostic confidence were ranked using predefined scales.
Subjective nodule segmentation was evaluated using sensitivity and Dice
similarity coefficient (DSC); clustered Wilcoxon signed-rank test was used.
Results: The 64-projection sparse-view images resulted in 0.89 sensitivity
and 0.81 DSC, while their counterparts, postprocessed with the U-Net, had
improved metrics (0.94 sensitivity and 0.85 DSC) (p = 0.400). Fewer views led
to insufficient IQ for diagnosis. For increased views, no substantial
discrepancies were noted between sparse-view and postprocessed images.
Conclusions: Projection views can be reduced from 2,048 to 64 while
maintaining IQ and the confidence of the radiologists on a satisfactory level.
- Abstract(参考訳): 背景: 肺転移検出のためのU-Netを用いて, スパースビューCT画像の画質(IQ)を向上し, 視数, IQ, 診断信頼性の最良のトレードオフを判定することを目的とした。
方法: 62.8$\pm$ 10.6 (約$\pm$ 標準偏差) の41名の被験者のct画像, 23名, 肺転移34名, 健常7名 (2016-2018) をふりかえりに選択し, 前方に2,048ビューシンノグラムを投影した。
16, 32, 64, 18, 256, 512 ビューのフィルタバックプロジェクションを用いて, 種々のアンダーサンプリングレベルの6つのスパースビューCTデータサブセットをシノグラムから再構成した。
2フレームのU-Netを訓練し,22名の疾患患者の8,658枚の画像から各サブサンプリングレベルについて評価した。
19名 (病型12名, 健康7名) を対象に, スキャン毎の代表画像を選択した。
これらのスライス(サブサンプリング)は、U-Netのポストプロセッシングを伴わない全てのレベルで、3つの読者に提示された。
iqと診断信頼度は予め定義された尺度でランク付けされた。
感性およびDice類似度係数(DSC)を用いて主観的結節セグメンテーションを評価し, クラスタ化Wilcoxon符号ランク試験を行った。
結果:64個のプロジェクションのスパースビュー画像は0.89感度と0.81DSCとなり、U-Netで後処理した画像は0.94感度と0.85DSC(p = 0.400)に改善された。
診断にIQは不十分であった。
視野の増大については、スパースビューと後処理画像の間にはかなりの差はなかった。
結論: iqと放射線技師の信頼を満足のいくレベルで維持しながら、投影ビューを2,048から64に減らすことができる。
関連論文リスト
- Improving Automated Hemorrhage Detection in Sparse-view Computed Tomography via Deep Convolutional Neural Network based Artifact Reduction [3.9874211732430447]
3000例のSparse-view cranial CTによるアーティファクト削減のためのU-Netの訓練を行った。
また, 自動出血検出のために17,545例のCTデータから畳み込みニューラルネットワークを訓練した。
U-Netは、画像の品質や出血の自動診断に関して、未処理画像やテレビ処理画像よりも優れていた。
論文 参考訳(メタデータ) (2023-03-16T14:21:45Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Classification of COVID-19 Patients with their Severity Level from Chest
CT Scans using Transfer Learning [3.667495151642095]
新型コロナウイルスの感染拡大を受け、病院のベッドなど医療機器の需要が高まっている。
これを念頭に置いて、私たちは新型コロナウイルスの検出と、胸部CTスキャンとDeep Learning事前訓練モデルを用いて重症度を評価する研究を共有しています。
私たちのモデルは、新型コロナウイルスとその重症度を検出するのに役立ちます。
論文 参考訳(メタデータ) (2022-05-27T06:22:09Z) - COVID-19 Severity Classification on Chest X-ray Images [0.0]
本研究は,感染の重症度に基づいて画像の分類を行う。
ResNet-50モデルは精度95%、リコール(0.94)、F1スコア(0.92)、精度(0.91)で顕著な分類結果を得た。
論文 参考訳(メタデータ) (2022-05-25T12:01:03Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Pointwise visual field estimation from optical coherence tomography in
glaucoma: a structure-function analysis using deep learning [12.70143462176992]
SAP(Standard Automated Perimetry)は、緑内障治療における視野(VF)の喪失を監視するための金の標準である。
我々は,光学コヒーレンス・トモグラフィー(OCT)スキャンによる点方向および全体的VF損失を推定する深層学習(DL)回帰モデルを開発し,検証した。
論文 参考訳(メタデータ) (2021-06-07T16:58:38Z) - Towards Ultrafast MRI via Extreme k-Space Undersampling and
Superresolution [65.25508348574974]
我々は、オリジナルのfastMRIチャレンジを参照するすべての公開論文によって報告されたMRI加速係数を下回る。
低解像を補うための強力な深層学習に基づく画像強化手法を検討する。
復元された画像の品質は他の方法よりも高く、MSEは0.00114、PSNRは29.6 dB、SSIMは0.956 x16加速係数である。
論文 参考訳(メタデータ) (2021-03-04T10:45:01Z) - Automatic classification of multiple catheters in neonatal radiographs
with deep learning [2.256008196530956]
新生児胸部および腹部X線写真上の複数のカテーテルを分類する深層学習アルゴリズムの開発と評価を行った。
畳み込みニューラルネットワーク(CNN)は,新生児胸部777例と腹部X線写真を用いて訓練した。
論文 参考訳(メタデータ) (2020-11-14T21:27:21Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。