論文の概要: Improving Image Quality of Sparse-view Lung Cancer CT Images with a
Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2307.15506v1
- Date: Fri, 28 Jul 2023 12:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 12:33:00.797964
- Title: Improving Image Quality of Sparse-view Lung Cancer CT Images with a
Convolutional Neural Network
- Title(参考訳): 畳み込みニューラルネットワークを用いた肺がんCT画像のスパースビュー画質の向上
- Authors: Annika Ries, Tina Dorosti, Johannes Thalhammer, Daniel Sasse, Andreas
Sauter, Felix Meurer, Ashley Benne, Franz Pfeiffer, Daniela Pfeiffer
- Abstract要約: 肺がん検出用U-Netを用いて、スパースビューCT画像の画質を向上させる。
ビュー数、画質、診断信頼性の最良のトレードオフを決定する。
- 参考スコア(独自算出の注目度): 3.3015486217195233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: To improve the image quality of sparse-view computed tomography (CT)
images with a U-Net for lung cancer detection and to determine the best
trade-off between number of views, image quality, and diagnostic confidence.
Methods: CT images from 41 subjects (34 with lung cancer, seven healthy) were
retrospectively selected (01.2016-12.2018) and forward projected onto 2048-view
sinograms. Six corresponding sparse-view CT data subsets at varying levels of
undersampling were reconstructed from sinograms using filtered backprojection
with 16, 32, 64, 128, 256, and 512 views, respectively. A dual-frame U-Net was
trained and evaluated for each subsampling level on 8,658 images from 22
diseased subjects. A representative image per scan was selected from 19
subjects (12 diseased, seven healthy) for a single-blinded reader study. The
selected slices, for all levels of subsampling, with and without
post-processing by the U-Net model, were presented to three readers. Image
quality and diagnostic confidence were ranked using pre-defined scales.
Subjective nodule segmentation was evaluated utilizing sensitivity (Se) and
Dice Similarity Coefficient (DSC) with 95% confidence intervals (CI).
Results: The 64-projection sparse-view images resulted in Se = 0.89 and DSC =
0.81 [0.75,0.86] while their counterparts, post-processed with the U-Net, had
improved metrics (Se = 0.94, DSC = 0.85 [0.82,0.87]). Fewer views lead to
insufficient quality for diagnostic purposes. For increased views, no
substantial discrepancies were noted between the sparse-view and post-processed
images.
Conclusion: Projection views can be reduced from 2048 to 64 while maintaining
image quality and the confidence of the radiologists on a satisfactory level.
- Abstract(参考訳): 目的: 肺癌検出用u-netを用いたsparse-view ct(ct)画像の画質向上と, 画像数, 画像品質, 診断信頼度との間の最善のトレードオフを判定すること。
方法:41名(肺癌34名,健康7名)のct画像の振り返り(01.2016-12.2018)を2048ビューシンノグラムに投影した。
16, 32, 64, 18, 256, 512 ビューのフィルターバックプロジェクションを用いて, 種々のアンダーサンプリングレベルの6つのスパルスビューCTデータサブセットをシノグラムから再構成した。
2フレームのU-Netを訓練し,22名の疾患患者の8,658枚の画像から各サブサンプリングレベルについて評価した。
19名 (病型12名, 健康7名) を対象に, 単一盲検者調査を行った。
選択されたスライスは、u-netモデルによる後処理を伴う全てのレベルのサブサンプリングに対して、3つの読者に提示された。
画像品質と診断信頼度は予め定義されたスケールでランク付けされた。
主観的結節分節は95%信頼区間(ci)の感度(se)とdice類似度係数(dsc)を用いて評価した。
結果: 64射影のスパースビュー画像はSe = 0.89, DSC = 0.81 [0.75,0.86] となり, U-Netで処理した画像は改善された(Se = 0.94, DSC = 0.85 [0.82,0.87])。
低い視点は診断の目的に不十分な品質をもたらす。
視野の増大については、スパースビューと後処理画像の間にはかなりの差はなかった。
結論: プロジェクションビューは, 画像品質と放射線科医の信頼を満足のいくレベルで維持しながら, 2048 から 64 に削減できる。
関連論文リスト
- Improving Automated Hemorrhage Detection in Sparse-view Computed Tomography via Deep Convolutional Neural Network based Artifact Reduction [3.9874211732430447]
3000例のSparse-view cranial CTによるアーティファクト削減のためのU-Netの訓練を行った。
また, 自動出血検出のために17,545例のCTデータから畳み込みニューラルネットワークを訓練した。
U-Netは、画像の品質や出血の自動診断に関して、未処理画像やテレビ処理画像よりも優れていた。
論文 参考訳(メタデータ) (2023-03-16T14:21:45Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Classification of COVID-19 Patients with their Severity Level from Chest
CT Scans using Transfer Learning [3.667495151642095]
新型コロナウイルスの感染拡大を受け、病院のベッドなど医療機器の需要が高まっている。
これを念頭に置いて、私たちは新型コロナウイルスの検出と、胸部CTスキャンとDeep Learning事前訓練モデルを用いて重症度を評価する研究を共有しています。
私たちのモデルは、新型コロナウイルスとその重症度を検出するのに役立ちます。
論文 参考訳(メタデータ) (2022-05-27T06:22:09Z) - COVID-19 Severity Classification on Chest X-ray Images [0.0]
本研究は,感染の重症度に基づいて画像の分類を行う。
ResNet-50モデルは精度95%、リコール(0.94)、F1スコア(0.92)、精度(0.91)で顕著な分類結果を得た。
論文 参考訳(メタデータ) (2022-05-25T12:01:03Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Pointwise visual field estimation from optical coherence tomography in
glaucoma: a structure-function analysis using deep learning [12.70143462176992]
SAP(Standard Automated Perimetry)は、緑内障治療における視野(VF)の喪失を監視するための金の標準である。
我々は,光学コヒーレンス・トモグラフィー(OCT)スキャンによる点方向および全体的VF損失を推定する深層学習(DL)回帰モデルを開発し,検証した。
論文 参考訳(メタデータ) (2021-06-07T16:58:38Z) - Towards Ultrafast MRI via Extreme k-Space Undersampling and
Superresolution [65.25508348574974]
我々は、オリジナルのfastMRIチャレンジを参照するすべての公開論文によって報告されたMRI加速係数を下回る。
低解像を補うための強力な深層学習に基づく画像強化手法を検討する。
復元された画像の品質は他の方法よりも高く、MSEは0.00114、PSNRは29.6 dB、SSIMは0.956 x16加速係数である。
論文 参考訳(メタデータ) (2021-03-04T10:45:01Z) - Automatic classification of multiple catheters in neonatal radiographs
with deep learning [2.256008196530956]
新生児胸部および腹部X線写真上の複数のカテーテルを分類する深層学習アルゴリズムの開発と評価を行った。
畳み込みニューラルネットワーク(CNN)は,新生児胸部777例と腹部X線写真を用いて訓練した。
論文 参考訳(メタデータ) (2020-11-14T21:27:21Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。