論文の概要: Improved cystic hygroma detection from prenatal imaging using ultrasound-specific self-supervised representation learning
- arxiv url: http://arxiv.org/abs/2512.22730v1
- Date: Sun, 28 Dec 2025 00:07:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.191996
- Title: Improved cystic hygroma detection from prenatal imaging using ultrasound-specific self-supervised representation learning
- Title(参考訳): 超音波特異的自己教師型表現学習を用いた出生前画像からの嚢胞性ハイグロマの検出の改善
- Authors: Youssef Megahed, Robin Ducharme, Inok Lee, Inbal Willner, Olivier X. Miguel, Kevin Dick, Adrian D. C. Chan, Mark Walker, Steven Hawken,
- Abstract要約: 嚢胞性横隔膜腫(Cystic hygroma)は、高リスク出生前超音波検査で、染色体異常、構造的異常、および妊娠の悪影響を呈する。
本研究は,第1トリメスター超音波画像において,超音波による自己教師付き事前訓練が,嚢胞性肥大症を高精度かつ堅牢に検出するのに役立つかどうかを検証した。
- 参考スコア(独自算出の注目度): 0.18058404137575482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cystic hygroma is a high-risk prenatal ultrasound finding that portends high rates of chromosomal abnormalities, structural malformations, and adverse pregnancy outcomes. Automated detection can increase reproducibility and support scalable early screening programs, but supervised deep learning methods are limited by small labelled datasets. This study assesses whether ultrasound-specific self-supervised pretraining can facilitate accurate, robust deep learning detection of cystic hygroma in first-trimester ultrasound images. We fine-tuned the Ultrasound Self-Supervised Foundation Model with Masked Autoencoding (USF-MAE), pretrained on over 370,000 unlabelled ultrasound images, for binary classification of normal controls and cystic hygroma cases used in this study. Performance was evaluated on the same curated ultrasound dataset, preprocessing pipeline, and 4-fold cross-validation protocol as for the DenseNet-169 baseline, using accuracy, sensitivity, specificity, and the area under the receiver operating characteristic curve (ROC-AUC). Model interpretability was analyzed qualitatively using Score-CAM visualizations. USF-MAE outperformed the DenseNet-169 baseline on all evaluation metrics. The proposed model yielded a mean accuracy of 0.96, sensitivity of 0.94, specificity of 0.98, and ROC-AUC of 0.98 compared to 0.93, 0.92, 0.94, and 0.94 for the DenseNet-169 baseline, respectively. Qualitative Score-CAM visualizations of model predictions demonstrated clinical relevance by highlighting expected regions in the fetal neck for both positive and negative cases. Paired statistical analysis using a Wilcoxon signed-rank test confirmed that performance improvements achieved by USF-MAE were statistically significant (p = 0.0057).
- Abstract(参考訳): 嚢胞性横隔膜腫(Cystic hygroma)は、高リスク出生前超音波検査で、染色体異常、構造的異常、および妊娠の悪影響を呈する。
自動検出は再現性を高め、スケーラブルな早期スクリーニングプログラムをサポートするが、教師付きディープラーニングメソッドは小さなラベル付きデータセットによって制限される。
本研究は,第1トリメスター超音波画像において,超音波による自己教師付き事前訓練が,嚢胞性肥大症を高精度かつ堅牢に検出するのに役立つかどうかを検証した。
370,000枚以上の非標識超音波画像で事前訓練したUSF-MAE(USF-MAE)を用いた超音波自己監督ファンデーションモデルを用いて,正常な制御のバイナリ分類と嚢胞性ハイグロマ症例について検討した。
精度,感度,特異性,受信動作特性曲線(ROC-AUC)の下の領域を用いて,DenseNet-169ベースラインと同一のキュレートされた超音波データセット,前処理パイプライン,および4倍のクロスバリデーションプロトコルの性能を評価した。
モデル解釈可能性をScore-CAM視覚化を用いて定性的に分析した。
USF-MAEはすべての評価指標でDenseNet-169ベースラインを上回った。
提案モデルでは, DenseNet-169ベースラインの平均精度は0.96, 感度は0.94, 特異性は0.98, ROC-AUCは0.93, 0.92, 0.94, 0.94であった。
モデル予測の質的スコア-CAM視覚化は, 陰性例と陰性例の両方で胎児頸部の期待領域を強調することにより臨床関連性を示した。
ウィルコクソンの署名ランク試験を用いたペア統計分析により、USF-MAEによる性能改善は統計的に有意であることが確認された(p = 0.0057)。
関連論文リスト
- Self-Supervised Ultrasound Representation Learning for Renal Anomaly Prediction in Prenatal Imaging [0.19544534628180868]
自動胎児腎異常分類のための自己教師型超音波基礎モデルの性能評価を行った。
モデルはクロスバリデーションと独立したテストセットを使用したDenseNet-169畳み込みベースラインと比較された。
AUCは16.28%、F1スコアは46.15%向上した。
論文 参考訳(メタデータ) (2025-12-15T15:28:02Z) - Deep Unsupervised Anomaly Detection in Brain Imaging: Large-Scale Benchmarking and Bias Analysis [42.60508892284938]
脳画像の深部教師なし異常検出のための大規模マルチセンターベンチマークを提案する。
健康なデータセットと多様な臨床コホートにまたがる2,221T1wと1,262T2wのスキャンを行った。
我々のベンチマークは今後の研究の透明な基盤を確立し、臨床翻訳の優先順位を強調している。
論文 参考訳(メタデータ) (2025-12-01T11:03:27Z) - Deep Learning Analysis of Prenatal Ultrasound for Identification of Ventriculomegaly [0.17476892297485447]
心膜腫は胎児の脳室拡張を特徴とする出生前状態である。
提案モデルでは,OpenUS-46コーパスから370,000枚以上の超音波画像に予めトレーニングしたビジョントランスフォーマーエンコーダを組み込んだ。
モデルは5倍のクロスバリデーションで91.76%、独立したテストセットで91.78%のF1スコアに達した。
論文 参考訳(メタデータ) (2025-11-11T04:45:48Z) - Validating Vision Transformers for Otoscopy: Performance and Data-Leakage Effects [42.465094107111646]
本研究では、耳疾患の診断精度を高めるために、視覚トランスモデル、特にスウィントランスモデルの有効性を評価する。
この研究はチリ大学臨床病院の耳鼻咽喉科の実際のデータセットを利用した。
論文 参考訳(メタデータ) (2025-11-06T23:20:37Z) - An Automatic Detection Method for Hematoma Features in Placental Abruption Ultrasound Images Based on Few-Shot Learning [11.678844582870523]
胎盤破裂は妊娠中の重篤な合併症であり,早期診断は母体・胎児の安全確保に不可欠である。
本稿では,小サンプル学習に基づく改良型EH-YOLOv11nを提案する。
実験の結果、検出精度は78%で、YOLOv11nよりも2.5%、YOLOv8より13.7%向上した。
論文 参考訳(メタデータ) (2025-10-24T14:20:34Z) - Bridging Accuracy and Interpretability: Deep Learning with XAI for Breast Cancer Detection [0.0]
乳腺腫瘤のFNA(Digitalized Fine needle Aspirate)画像から抽出した定量的特徴を用いて,乳がん早期発見のための解釈可能なディープラーニングフレームワークを提案する。
私たちのディープニューラルネットワークは、ReLUアクティベーション、Adam視覚化、バイナリクロスエントロピー損失を使用して、最先端の分類性能を提供します。
論文 参考訳(メタデータ) (2025-10-18T07:47:26Z) - A Novel Attention-Augmented Wavelet YOLO System for Real-time Brain Vessel Segmentation on Transcranial Color-coded Doppler [49.03919553747297]
我々は,脳動脈を効率よく捉えることができるAIを利用したリアルタイムCoW自動分割システムを提案する。
Transcranial Color-coded Doppler (TCCD) を用いたAIによる脳血管セグメンテーションの事前研究は行われていない。
提案したAAW-YOLOは, 異方性および対側性CoW容器のセグメンテーションにおいて高い性能を示した。
論文 参考訳(メタデータ) (2025-08-19T14:41:22Z) - Enhancing Diagnostic Reliability of Foundation Model with Uncertainty Estimation in OCT Images [41.002573031087856]
光コヒーレンストモグラフィー(OCT)における11個の網膜状態を検出するために,不確実性推定(FMUE)を用いた基礎モデルを開発した。
FMUEは2つの最先端アルゴリズムであるRETFoundとUIOSよりも96.76%高いF1スコアを獲得し、しきい値戦略を98.44%に改善した。
我々のモデルは、F1スコアが高い2人の眼科医(95.17%対61.93% &71.72%)より優れている。
論文 参考訳(メタデータ) (2024-06-18T03:04:52Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。