論文の概要: Slice-wise quality assessment of high b-value breast DWI via deep learning-based artifact detection
- arxiv url: http://arxiv.org/abs/2603.03941v1
- Date: Wed, 04 Mar 2026 11:00:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.275552
- Title: Slice-wise quality assessment of high b-value breast DWI via deep learning-based artifact detection
- Title(参考訳): 深層学習による高b値乳房DWIのスライスワイズ品質評価
- Authors: Ameya Markale, Luise Brock, Ihor Horishnyi, Dominika Skwierawska, Tri-Thien Nguyen, Hannes Schreiter, Shirin Heidarikahkesh, Lorenz A. Kapsner, Michael Uder, Sabine Ohlmeyer, Frederik B Laun, Andrzej Liebert, Sebastian Bickelhaupt,
- Abstract要約: 拡散強調画像(DWI)は乳房MRIにおける病変の検出と特徴を補助する
特に、高b値拡散強調取得は、診断画像の評価に影響を及ぼす可能性のある強度のあるアーティファクトの傾向が強い。
本研究の目的は,高b値拡散強調画像における高次および低次人工物の両方をディープラーニングを用いて検出することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-weighted imaging (DWI) can support lesion detection and characterization in breast magnetic resonance imaging (MRI), however especially high b-value diffusion-weighted acquisitions can be prone to intensity artifacts that can affect diagnostic image assessment. This study aims to detect both hyper- and hypointense artifacts on high b-value diffusion-weighted images (b=1500 s/mm2) using deep learning, employing either a binary classification (artifact presence) or a multiclass classification (artifact intensity) approach on a slice-wise dataset.This IRB-approved retrospective study used the single-center dataset comprising n=11806 slices from routine 3T breast MRI examinations performed between 2022 and mid-2023. Three convolutional neural network (CNN) architectures (DenseNet121, ResNet18, and SEResNet50) were trained for binary classification of hyper- and hypointense artifacts. The best performing model (DenseNet121) was applied to an independent holdout test set and was further trained separately for multiclass classification. Evaluation included area under receiver operating characteristic curve (AUROC), area under precision recall curve (AUPRC), precision, and recall, as well as analysis of predicted bounding box positions, derived from the network Grad-CAM heatmaps. DenseNet121 achieved AUROCs of 0.92 and 0.94 for hyper- and hypointense artifact detection, respectively, and weighted AUROCs of 0.85 and 0.88 for multiclass classification on single-slice high b-value diffusion-weighted images. A radiologist evaluated bounding box precision on a 1-5 Likert-like scale across 200 slices, achieving mean scores of 3.33+-1.04 for hyperintense artifacts and 2.62+-0.81 for hypointense artifacts. Hyper- and hypointense artifact detection in slice-wise breast DWI MRI dataset (b=1500 s/mm2) using CNNs particularly DenseNet121, seems promising and requires further validation.
- Abstract(参考訳): 拡散強調画像(DWI)は乳房磁気共鳴画像(MRI)の病変検出と特徴付けを支援することができるが、特に高b値拡散強調画像の取得は、診断画像の評価に影響を及ぼすような強度の人工物によって引き起こされる可能性がある。
本研究は,高b値拡散強調画像(b=1500 s/mm2)上の高次および低次人工物(b=1500 s/mm2)を検出することを目的として,2022年から2023年中頃にかけて実施された3T乳房MRI検査のn=11806スライスからなる単一中心データセットを用いて,2値分類(アーティファクト存在)と多値分類(アーティファクト強度)アプローチ(アーティファクト強度)のいずれにおいても検出することを目的とした。
3つの畳み込みニューラルネットワーク(DenseNet121、ResNet18、SEResNet50)アーキテクチャは、ハイパーセンスとローセンスアーティファクトのバイナリ分類のために訓練された。
最高のパフォーマンスモデル(DenseNet121)は独立したホールトアウトテストセットに適用され、さらに個別にマルチクラス分類のために訓練された。
評価対象は、受信機動作特性曲線(AUROC)、高精度リコール曲線(AUPRC)、精度、リコール、ネットワークGrad-CAMヒートマップから導出した予測バウンディングボックス位置の解析などであった。
DenseNet121 は超高感度のアーティファクト検出では 0.92 と 0.94 の AUROC を、単スライス高b値拡散強調画像では 0.85 と 0.88 の AUROC を重み付けした。
ある放射線学者は、200スライスにまたがる1-5 Likert-likeスケールでのバウンディングボックスの精度を評価し、ハイパーインセンスアーティファクトの平均スコアは3.33+-1.04、低インセンスアーティファクトは2.62+-0.81に達した。
CNN、特にDenseNet121を使用したスライスワイズ乳房MRIデータセット(b=1500 s/mm2)における超高次および低次アーティファクト検出は有望であり、さらなる検証が必要である。
関連論文リスト
- Deep Generative Models for Enhanced Vitreous OCT Imaging [0.7130302992490973]
条件付き拡散確率モデル(cDDPM)、ブラウン橋拡散モデル(BBDM)、U-Net、Pix2Pix、Vector-Quantized Generative Adversarial Network(VQ-GAN)を評価した。
論文 参考訳(メタデータ) (2025-11-02T10:36:59Z) - A Novel Attention-Augmented Wavelet YOLO System for Real-time Brain Vessel Segmentation on Transcranial Color-coded Doppler [49.03919553747297]
我々は,脳動脈を効率よく捉えることができるAIを利用したリアルタイムCoW自動分割システムを提案する。
Transcranial Color-coded Doppler (TCCD) を用いたAIによる脳血管セグメンテーションの事前研究は行われていない。
提案したAAW-YOLOは, 異方性および対側性CoW容器のセグメンテーションにおいて高い性能を示した。
論文 参考訳(メタデータ) (2025-08-19T14:41:22Z) - Semi-Supervised Anomaly Detection in Brain MRI Using a Domain-Agnostic Deep Reinforcement Learning Approach [2.3633885460047765]
我々は,大規模データやオーバーフィット,クラス不均衡といった課題に対処するために,深層強化学習(DRL)を用いたドメインに依存しない半教師付き異常検出フレームワークを開発した。
この研究では、2005年から2021年の間に収集された公開の脳MRIデータセットを使用した。
論文 参考訳(メタデータ) (2025-08-02T01:39:13Z) - Attenuation artifact detection and severity classification in intracoronary OCT using mixed image representations [2.334201943310467]
本稿では, 減衰線(A線)を3つのクラスに分類する畳み込みニューラルネットワークを提案する。
本手法は, 軽度および重度の加工品に対して, OCTフレームのFスコア0.77, 0.94に達する減衰アーティファクトの存在を検知する。
論文 参考訳(メタデータ) (2025-03-07T11:01:00Z) - Unsupervised dMRI Artifact Detection via Angular Resolution Enhancement and Cycle Consistency Learning [45.3610312584439]
拡散磁気共鳴イメージング(dMRI)は神経画像研究において重要な技術であり、脳組織の基盤構造を非侵襲的に探究することができる。
臨床dMRIデータは、取得中に様々なアーティファクトに影響を受けやすいため、信頼性の低いその後の分析に繋がる可能性がある。
我々は、$textbfU$n $textbfd$MRI $textbfA$rtifact $textbfD$etection via $textbfA$ngular Resolution Enhancement and $textbfC$ycleと呼ばれる新しい教師なしディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:56:10Z) - An edge detection-based deep learning approach for tear meniscus height measurement [20.311238180811404]
深層学習フレームワークにおけるエッジ検出支援アノテーションに基づく自動TMH計測手法を提案する。
瞳孔領域と裂孔領域のセグメンテーションを改善するために、畳み込みニューラルネットワークInceptionv3が最初に実装された。
このアルゴリズムは、その品質に基づいて画像を自動的にスクリーニングし、瞳孔と涙孔領域を分離し、TMHを自動的に測定する。
論文 参考訳(メタデータ) (2024-03-23T14:16:26Z) - Comparison of retinal regions-of-interest imaged by OCT for the
classification of intermediate AMD [3.0171643773711208]
269名の中間AMD患者と115名の健常者から15744名のBスキャンを行った。
各サブセットについて、畳み込みニューラルネットワーク(VGG16アーキテクチャに基づいて、ImageNetで事前トレーニングされた)をトレーニングし、テストした。
モデルの性能は, 受信動作特性(AUROC), 精度, 感度, 特異性に基づいて評価した。
論文 参考訳(メタデータ) (2023-05-04T13:48:55Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Machine-Learning-Based Multiple Abnormality Prediction with Large-Scale
Chest Computed Tomography Volumes [64.21642241351857]
19,993症例から36,316巻の胸部CTデータセットを収集,解析した。
自由テキストラジオグラフィーレポートから異常ラベルを自動的に抽出するルールベース手法を開発した。
胸部CTボリュームの多臓器・多臓器分類モデルも開発した。
論文 参考訳(メタデータ) (2020-02-12T00:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。