論文の概要: Pre-examinations Improve Automated Metastases Detection on Cranial MRI
- arxiv url: http://arxiv.org/abs/2403.08280v1
- Date: Wed, 13 Mar 2024 06:18:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:15:58.443948
- Title: Pre-examinations Improve Automated Metastases Detection on Cranial MRI
- Title(参考訳): 頭蓋MRIにおける自動転移検出の事前検査による改善
- Authors: Katerina Deike-Hofmann and Dorottya Dancs and Daniel Paech and
Heinz-Peter Schlemmer and Klaus Maier-Hein and Philipp B\"aumer and Alexander
Radbruch and Michael G\"otz
- Abstract要約: コントラスト強調T1強調画像における高感度MMの自動検出
診断成績は造影T1強調画像と術前MRIで得られた。
- 参考スコア(独自算出の注目度): 36.39673740985943
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Materials and methods: First, a dual-time approach was assessed, for which
the CNN was provided sequences of the MRI that initially depicted new MM
(diagnosis MRI) as well as of a prediagnosis MRI: inclusion of only
contrast-enhanced T1-weighted images (CNNdual_ce) was compared with inclusion
of also the native T1-weighted images, T2-weighted images, and FLAIR sequences
of both time points (CNNdual_all).Second, results were compared with the
corresponding single time approaches, in which the CNN was provided exclusively
the respective sequences of the diagnosis MRI.Casewise diagnostic performance
parameters were calculated from 5-fold cross-validation.
Results: In total, 94 cases with 494 MMs were included. Overall, the highest
diagnostic performance was achieved by inclusion of only the contrast-enhanced
T1-weighted images of the diagnosis and of a prediagnosis MRI (CNNdual_ce,
sensitivity = 73%, PPV = 25%, F1-score = 36%). Using exclusively
contrast-enhanced T1-weighted images as input resulted in significantly less
false-positives (FPs) compared with inclusion of further sequences beyond
contrast-enhanced T1-weighted images (FPs = 5/7 for CNNdual_ce/CNNdual_all, P <
1e-5). Comparison of contrast-enhanced dual and mono time approaches revealed
that exclusion of prediagnosis MRI significantly increased FPs (FPs = 5/10 for
CNNdual_ce/CNNce, P < 1e-9).Approaches with only native sequences were clearly
inferior to CNNs that were provided contrast-enhanced sequences.
Conclusions: Automated MM detection on contrast-enhanced T1-weighted images
performed with high sensitivity. Frequent FPs due to artifacts and vessels were
significantly reduced by additional inclusion of prediagnosis MRI, but not by
inclusion of further sequences beyond contrast-enhanced T1-weighted images.
Future studies might investigate different change detection architectures for
computer-aided detection.
- Abstract(参考訳): 対象と方法: まず,CNNに新しいMM(診断MRI)と診断前MRIのシーケンスが提供され,T1強調画像(CNNdual_ce)とT1強調画像(T2強調画像)とFLAIR画像(CNNdual_all)との対比を行った。
第2に, 診断MRIの各々のシーケンスをCNNに限定して提供し, 診断性能パラメータを5倍のクロスバリデーションから算出した。
結果: 計94例, MM494例であった。
CNNdual_ce, sensitivity = 73%, PPV = 25%, F1-score = 36%)と診断された。
FPs = 5/7 for CNNdual_ce/CNNdual_all, P < 1e-5。
FPs = 5/10 for CNNdual_ce/CNNce, P < 1e-9。
ネイティブシーケンスのみのアプローチは、コントラスト強化シーケンスを提供するCNNよりも明らかに劣っていた。
結論: コントラスト強調T1強調画像におけるMM自動検出を高感度で行った。
異物や血管によるFPの頻度は, 診断前のMRIを付加することにより有意に減少したが, 造影T1強調画像以外の追加配列は含まれなかった。
将来の研究は、コンピュータ支援検出のための異なる変更検出アーキテクチャについて検討する。
関連論文リスト
- Conditional Generative Models for Contrast-Enhanced Synthesis of T1w and T1 Maps in Brain MRI [1.6124737486286778]
仮想エンハンスメントのための生成モデル,より正確に条件付き拡散とフローマッチングの可能性について検討する。
定量的MRIとT1強調画像によるT1スキャンの性能について検討した。
モデル全体では、T1重み付きスキャンよりもT1スキャンの方がセグメンテーションが優れている。
論文 参考訳(メタデータ) (2024-10-11T15:11:24Z) - T1-contrast Enhanced MRI Generation from Multi-parametric MRI for Glioma Patients with Latent Tumor Conditioning [1.581761125201628]
ガドリニウム系造影剤(GBCA)は、グリオーマ患者のMRIスキャンで一般的に用いられる。
GBCA毒性の懸念が高まっている。
本研究では,事前コントラストマルチMRIからT1ポストコントラスト(T1C)を生成するディープラーニングフレームワークを開発した。
論文 参考訳(メタデータ) (2024-09-03T05:45:37Z) - Self-Supervised Adversarial Diffusion Models for Fast MRI Reconstruction [1.167578793004766]
本稿では,自己教師付き深層学習圧縮拡散センシングMRI(DL)法を提案する。
対象はT1データセット(T1-w)50例であった。
ReconFormer TransformerとSS-MRIを比較し、正規化平均誤差(NMSE)、ピーク信号-雑音比(PSNR)、類似度指数(SSIM)を用いて性能を評価する。
論文 参考訳(メタデータ) (2024-06-21T21:22:17Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.586530244472655]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Simulation of acquisition shifts in T2 Flair MR images to stress test AI
segmentation networks [0.0]
この手法はMR信号方程式に基づいてMR画像の「獲得シフト微分」をシミュレートする。
実験は、実際のMRスキャンによるシミュレーション画像の検証と、最先端のMS病変セグメンテーションネットワークにおけるストレステストの例を含む。
論文 参考訳(メタデータ) (2023-11-03T13:10:55Z) - Low-field magnetic resonance image enhancement via stochastic image
quality transfer [5.0300525464861385]
低磁場(1T)磁気共鳴イメージング(MRI)スキャナーは、低所得国や中所得国(LMICs)で広く使われている。
低磁場MR画像は通常、高分解能画像(1.5T、3T以上)よりも解像度が低くコントラストが低い。
そこで本研究では、低磁場画像から高磁場で得られた画像から低磁場構造体MRIを推定することにより、画像品質変換(IQT)を提案する。
論文 参考訳(メタデータ) (2023-04-26T08:52:29Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Symmetry-Enhanced Attention Network for Acute Ischemic Infarct
Segmentation with Non-Contrast CT Images [50.55978219682419]
急性虚血性梗塞セグメンテーションのための対称性増強型注意ネットワーク(SEAN)を提案する。
提案するネットワークは、入力されたCT画像を、脳組織が左右対称な標準空間に自動的に変換する。
提案したSEANは、ダイス係数と梗塞局所化の両方の観点から、対称性に基づく最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-10-11T07:13:26Z) - ShuffleUNet: Super resolution of diffusion-weighted MRIs using deep
learning [47.68307909984442]
SISR(Single Image Super-Resolution)は、1つの低解像度入力画像から高解像度(HR)の詳細を得る技術である。
ディープラーニングは、大きなデータセットから事前知識を抽出し、低解像度の画像から優れたMRI画像を生成します。
論文 参考訳(メタデータ) (2021-02-25T14:52:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。