論文の概要: Deep Learning Analysis of Prenatal Ultrasound for Identification of Ventriculomegaly
- arxiv url: http://arxiv.org/abs/2511.07827v1
- Date: Wed, 12 Nov 2025 01:22:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.498325
- Title: Deep Learning Analysis of Prenatal Ultrasound for Identification of Ventriculomegaly
- Title(参考訳): 出生前超音波の深層学習解析による心膜腫の同定
- Authors: Youssef Megahed, Inok Lee, Robin Ducharme, Aylin Erman, Olivier X. Miguel, Kevin Dick, Adrian D. C. Chan, Steven Hawken, Mark Walker, Felipe Moretti,
- Abstract要約: 心膜腫は胎児の脳室拡張を特徴とする出生前状態である。
提案モデルでは,OpenUS-46コーパスから370,000枚以上の超音波画像に予めトレーニングしたビジョントランスフォーマーエンコーダを組み込んだ。
モデルは5倍のクロスバリデーションで91.76%、独立したテストセットで91.78%のF1スコアに達した。
- 参考スコア(独自算出の注目度): 0.17476892297485447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proposed study aimed to develop a deep learning model capable of detecting ventriculomegaly on prenatal ultrasound images. Ventriculomegaly is a prenatal condition characterized by dilated cerebral ventricles of the fetal brain and is important to diagnose early, as it can be associated with an increased risk for fetal aneuploidies and/or underlying genetic syndromes. An Ultrasound Self-Supervised Foundation Model with Masked Autoencoding (USF-MAE), recently developed by our group, was fine-tuned for a binary classification task to distinguish fetal brain ultrasound images as either normal or showing ventriculomegaly. The USF-MAE incorporates a Vision Transformer encoder pretrained on more than 370,000 ultrasound images from the OpenUS-46 corpus. For this study, the pretrained encoder was adapted and fine-tuned on a curated dataset of fetal brain ultrasound images to optimize its performance for ventriculomegaly detection. Model evaluation was conducted using 5-fold cross-validation and an independent test cohort, and performance was quantified using accuracy, precision, recall, specificity, F1-score, and area under the receiver operating characteristic curve (AUC). The proposed USF-MAE model reached an F1-score of 91.76% on the 5-fold cross-validation and 91.78% on the independent test set, with much higher scores than those obtained by the baseline models by 19.37% and 16.15% compared to VGG-19, 2.31% and 2.56% compared to ResNet-50, and 5.03% and 11.93% compared to ViT-B/16, respectively. The model also showed a high mean test precision of 94.47% and an accuracy of 97.24%. The Eigen-CAM (Eigen Class Activation Map) heatmaps showed that the model was focusing on the ventricle area for the diagnosis of ventriculomegaly, which has explainability and clinical plausibility.
- Abstract(参考訳): 本研究は,出生前超音波画像から腹腔鏡像を検出できる深層学習モデルを開発することを目的とした。
心室筋腫は胎児の脳室拡張を特徴とする出生前状態であり、胎児の好中球減少症やその根底にある遺伝症候群のリスクが増大する可能性があるため、早期に診断することが重要である。
本研究グループで最近開発したUSF-MAEを用いた超音波自己監督ファンデーションモデルを用いて,胎児脳超音波像を正常または腹腔鏡下画像と区別するための2値分類タスクを微調整した。
USF-MAEは、OpenUS-46コーパスから370,000枚以上の超音波画像に事前訓練されたビジョントランスフォーマーエンコーダを組み込んでいる。
本研究は, 胎児脳超音波画像のキュレートしたデータセットに, 予めトレーニングしたエンコーダを適応・微調整し, 腹腔鏡下検診のための性能を最適化した。
5倍のクロスバリデーションと独立したテストコホートを用いてモデル評価を行い,精度,精度,リコール,特異性,F1スコア,レシーバ操作特性曲線(AUC)下領域を用いて性能を定量化した。
提案されたUSF-MAEモデルは、5倍のクロスバリデーションで91.76%、独立したテストセットで91.78%のF1スコアに達し、ベースラインモデルで得られたスコアはVGG-19と比較して19.37%、VGG-19では2.31%、ResNet-50では2.56%、ViT-B/16では5.03%、11.93%であった。
また、平均試験精度は94.47%、精度は97.24%であった。
Eigen-CAM (Eigen Class Activation Map) のヒートマップでは,本モデルが腹腔鏡下診断のための心室領域に焦点を当てており,説明可能性と臨床的妥当性が示唆された。
関連論文リスト
- Challenging DINOv3 Foundation Model under Low Inter-Class Variability: A Case Study on Fetal Brain Ultrasound [4.07447364754644]
本研究は, 胎児超音波(US)画像の基礎モデルについて, クラス間変動の少ない条件下での総合評価を行った。
われわれは胎児脳標準平面(TT)、経室(TV)、経脳小脳(TC))に焦点をあて、高い重なり合いの解剖学的特徴を示した。
胎児超音波データで事前訓練されたモデルは、F1スコアの最大20%の重み付けにより、自然画像よりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-11-01T13:37:22Z) - USF-MAE: Ultrasound Self-Supervised Foundation Model with Masked Autoencoding [0.205246094017924]
マスク付き自動符号化(USF-MAE)を用いた超音波自己監督基礎モデルについて紹介する。
USF-MAEは超音波データのみに事前訓練された最初の大規模自己監督型MAEフレームワークである。
このモデルは、46のオープンソースデータセットから算出された370,000の2Dおよび3D超音波画像で事前訓練された。
論文 参考訳(メタデータ) (2025-10-27T04:16:43Z) - An Automatic Detection Method for Hematoma Features in Placental Abruption Ultrasound Images Based on Few-Shot Learning [11.678844582870523]
胎盤破裂は妊娠中の重篤な合併症であり,早期診断は母体・胎児の安全確保に不可欠である。
本稿では,小サンプル学習に基づく改良型EH-YOLOv11nを提案する。
実験の結果、検出精度は78%で、YOLOv11nよりも2.5%、YOLOv8より13.7%向上した。
論文 参考訳(メタデータ) (2025-10-24T14:20:34Z) - Epistemic-aware Vision-Language Foundation Model for Fetal Ultrasound Interpretation [83.02147613524032]
医療用AIシステムFetalMindについて報告する。
本稿では、専門家による2部グラフをモデルに注入し、ビュー・ディスリーズ関連を分離するSED(Salient Epistemic Disentanglement)を提案する。
FetalMindはすべての妊娠期のオープンソースおよびクローズドソースベースラインを上回り、平均利得は+14%、臨界条件では+61.2%高い。
論文 参考訳(メタデータ) (2025-10-14T19:57:03Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [56.99710477905796]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Atrial Septal Defect Detection in Children Based on Ultrasound Video
Using Multiple Instances Learning [14.62565592495898]
本稿では,心房中隔欠損診断を支援するための心エコー画像に基づく深層学習手法を提案する。
心房中隔(subAS)と低中隔4区画(LPS4C)の2つの標準ビューをASDを同定する2つのビューとして選択した。
ASD検出では,89.33 AUC,84.95精度,85.70感度,81.51特異度,81.99F1スコアが得られた。
論文 参考訳(メタデータ) (2023-06-06T16:25:29Z) - Localizing Scan Targets from Human Pose for Autonomous Lung Ultrasound
Imaging [61.60067283680348]
新型コロナウイルス(COVID-19)の世界的なパンデミックの出現に伴い、超音波画像を完全に自動化する必要がある。
本稿では,学習型コンピュータビジョン技術を取り入れた,視覚に基づくデータ駆動方式を提案する。
本手法は、プローブ位置決めのための15.52mm(9.47mm)、プローブ方位のための4.32(3.69deg)の精度を達成し、全走査目標に対する誤差閾値25mm以下で成功率を80%以上とした。
論文 参考訳(メタデータ) (2022-12-15T14:34:12Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。