論文の概要: Improving Automated Hemorrhage Detection in Sparse-view Computed
Tomography via Deep Convolutional Neural Network based Artifact Reduction
- arxiv url: http://arxiv.org/abs/2303.09340v2
- Date: Wed, 19 Jul 2023 08:55:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 17:36:36.200390
- Title: Improving Automated Hemorrhage Detection in Sparse-view Computed
Tomography via Deep Convolutional Neural Network based Artifact Reduction
- Title(参考訳): deep convolutional neural network based artifact reductionによるsparse-view ctによる出血自動検出の改善
- Authors: Johannes Thalhammer, Manuel Schultheiss, Tina Dorosti, Tobias Lasser,
Franz Pfeiffer, Daniela Pfeiffer, Florian Schaff
- Abstract要約: 3000例のSparse-view cranial CTによるアーティファクト削減のためのU-Netの訓練を行った。
自動出血検出のために17,545例の完全CTデータを用いて畳み込みニューラルネットワークを訓練した。
- 参考スコア(独自算出の注目度): 4.109026802238838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Sparse-view computed tomography (CT) is an effective way to reduce
dose by lowering the total number of views acquired, albeit at the expense of
image quality, which, in turn, can impact the ability to detect diseases. We
explore deep learning-based artifact reduction in sparse-view cranial CT scans
and its impact on automated hemorrhage detection. Methods: We trained a U-Net
for artefact reduction on simulated sparse-view cranial CT scans from 3000
patients obtained from a public dataset and reconstructed with varying levels
of sub-sampling. Additionally, we trained a convolutional neural network on
fully sampled CT data from 17,545 patients for automated hemorrhage detection.
We evaluated the classification performance using the area under the receiver
operator characteristic curves (AUC-ROCs) with corresponding 95% confidence
intervals (CIs) and the DeLong test, along with confusion matrices. The
performance of the U-Net was compared to an analytical approach based on total
variation (TV). Results: The U-Net performed superior compared to unprocessed
and TV-processed images with respect to image quality and automated hemorrhage
diagnosis. With U-Net post-processing, the number of views can be reduced from
4096 (AUC-ROC: 0.974; 95% CI: 0.972-0.976) views to 512 views (0.973;
0.971-0.975) with minimal decrease in hemorrhage detection (P<.001) and to 256
views (0.967; 0.964-0.969) with a slight performance decrease (P<.001).
Conclusion: The results suggest that U-Net based artifact reduction
substantially enhances automated hemorrhage detection in sparse-view cranial
CTs. Our findings highlight that appropriate post-processing is crucial for
optimal image quality and diagnostic accuracy while minimizing radiation dose.
- Abstract(参考訳): 目的:スパース・ビュー・コンピュート・トモグラフィー(CT)は,画像品質を犠牲にして取得したビューの総数を減らし,疾患検出能力に影響を及ぼす効果のある方法である。
スパース・ビュー脳CTにおける深層学習に基づくアーティファクトの低減とその自動出血検出への影響について検討する。
方法: パブリックデータセットから得られた3000例のスパース・ビュー頭蓋骨CTで, 各種サブサンプリングで再建したアーティファクト削減のためのU-Netを訓練した。
さらに, 自動出血検出のために17,545例のCTデータから畳み込みニューラルネットワークを訓練した。
95%信頼区間(cis)とdelong testに対応する受信者特性曲線(auc-rocs)の領域と混乱行列を用いた分類性能の評価を行った。
u-netの性能は,total variation (tv) に基づく解析手法と比較した。
結果: u-netは未処理画像やテレビ処理画像と比較して画像品質や出血診断の自動化に優れていた。
U-Net後処理では、ビューの数は4096ビュー(AUC-ROC: 0.974; 95% CI: 0.972-0.976)から512ビュー(0.973; 0.971-0.975)に減少し、出血検出の最小値(P<.001)と256ビュー(0.967; 0.964-0.969)に減少する。
結論: u-net によるアーティファクトの削減は sparse-view 頭蓋ct の出血検出を大幅に改善することが示唆された。
本研究は,放射線線量を最小限に抑えつつ,最適な画像品質と診断精度に適切な後処理が不可欠であることを示す。
関連論文リスト
- Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Using Multiple Dermoscopic Photographs of One Lesion Improves Melanoma
Classification via Deep Learning: A Prognostic Diagnostic Accuracy Study [0.0]
本研究はCNNをベースとしたメラノーマ分類器に対する単一病変の複数の実世界の皮膚内視鏡像の影響について検討した。
複数の実世界の画像を使用することは、CNNベースのメラノーマ分類器の性能に肯定的な影響を及ぼすための安価な方法である。
論文 参考訳(メタデータ) (2023-06-05T11:55:57Z) - Performance of a deep learning system for detection of referable
diabetic retinopathy in real clinical settings [0.0]
RetCAD v.1.3.1は糖尿病網膜症(DR)を自動的に検出するために開発された。
この人工知能ベースの技術を活用して、リリース可能なワークロードの削減を分析する。
論文 参考訳(メタデータ) (2022-05-11T14:59:10Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Critical Evaluation of Deep Neural Networks for Wrist Fracture Detection [1.0617212070722408]
関節リウマチは最も頻度の高い骨折である。
近年のDeep Learning(DL)分野の進歩は、畳み込みニューラルネットワークを用いて手首骨折検出を自動化できることを示している。
以上の結果から,DeepWristのような最先端のアプローチは,挑戦的なテストセットにおいて大幅に性能が低下していることが判明した。
論文 参考訳(メタデータ) (2020-12-04T13:35:36Z) - Deep Sequential Learning for Cervical Spine Fracture Detection on
Computed Tomography Imaging [20.051649556262216]
CT 軸方向画像における頚椎骨折の自動検出のための双方向長期記憶(BLSTM)層を用いた深部畳み込みニューラルネットワーク(DCNN)を提案する。
我々は,3,666個のCTスキャン(陽性729例,陰性2,937例)の注釈付きデータセットを用いて,モデルをトレーニングし,検証した。
検証結果から, 正の104例と負の104例と負の104例と負の104例と負の419例とで, 70.92%, 79.18%の分類精度を示した。
論文 参考訳(メタデータ) (2020-10-26T04:36:29Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。