論文の概要: Automated Classification of First-Trimester Fetal Heart Views Using Ultrasound-Specific Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2512.24492v1
- Date: Tue, 30 Dec 2025 22:24:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.501091
- Title: Automated Classification of First-Trimester Fetal Heart Views Using Ultrasound-Specific Self-Supervised Learning
- Title(参考訳): 超音波特化自己監督学習による胎児の胎児の心電図の自動分類
- Authors: Youssef Megahed, Aylin Erman, Robin Ducharme, Mark C. Walker, Steven Hawken, Adrian D. C. Chan,
- Abstract要約: 本研究は,第1トリメスター胎児心電図分類のための自己監督型超音波基礎モデルUSF-MAEの評価である。
USF-MAEは、370,000枚以上の未標識超音波画像のマスク付き自己符号化モデルを用いて事前訓練される。
全評価指標で最高性能を達成し、90.57%の精度、91.15%の精度、90.57%のリコール、90.71%のF1スコアを記録した。
- 参考スコア(独自算出の注目度): 0.205246094017924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Congenital heart disease remains the most common congenital anomaly and a leading cause of neonatal morbidity and mortality. Although first-trimester fetal echocardiography offers an opportunity for earlier detection, automated analysis at this stage is challenging due to small cardiac structures, low signal-to-noise ratio, and substantial inter-operator variability. In this work, we evaluate a self-supervised ultrasound foundation model, USF-MAE, for first-trimester fetal heart view classification. USF-MAE is pretrained using masked autoencoding modelling on more than 370,000 unlabelled ultrasound images spanning over 40 anatomical regions and is subsequently fine-tuned for downstream classification. As a proof of concept, the pretrained Vision Transformer encoder was fine-tuned on an open-source dataset of 6,720 first-trimester fetal echocardiography images to classify five categories: aorta, atrioventricular flows, V sign, X sign, and Other. Model performance was benchmarked against supervised convolutional neural network baselines (ResNet-18 and ResNet-50) and a Vision Transformer (ViT-B/16) model pretrained on natural images (ImageNet-1k). All models were trained and evaluated using identical preprocessing, data splits, and optimization protocols. On an independent test set, USF-MAE achieved the highest performance across all evaluation metrics, with 90.57% accuracy, 91.15% precision, 90.57% recall, and 90.71% F1-score. This represents an improvement of +2.03% in accuracy and +1.98% in F1-score compared with the strongest baseline, ResNet-18. The proposed approach demonstrated robust performance without reliance on aggressive image preprocessing or region-of-interest cropping and showed improved discrimination of non-diagnostic frames.
- Abstract(参考訳): 先天性心疾患は、先天異常が最も多く、新生児死亡や死亡の原因となっている。
第1トリメスター胎児心エコー法は早期発見の機会となるが、この段階での自動解析は、小さな心構造、低信号-雑音比、相当な操作間変動のために困難である。
本研究は,第1トリメスター胎児心電図分類のための自己監督型超音波基礎モデルUSF-MAEの評価である。
USF-MAEは、40の解剖学的領域にまたがる370,000以上の未層超音波画像上で、マスク付きオートエンコーディングモデルを用いて事前訓練され、その後、下流分類のために微調整される。
概念実証として、事前訓練されたVision Transformerエンコーダは、6,720個のオープンソースデータセットで細調整され、大動脈、房室血流、Vサイン、Xサインなどの5つのカテゴリに分類された。
モデル性能は、教師付き畳み込みニューラルネットワークベースライン(ResNet-18とResNet-50)と、自然画像(ImageNet-1k)で事前訓練されたビジョントランスフォーマー(ViT-B/16)モデルに対してベンチマークされた。
全てのモデルは、同じ前処理、データ分割、最適化プロトコルを使用して訓練され評価された。
独立したテストセットでは、USF-MAEは90.57%の精度、91.15%の精度、90.57%のリコール、90.71%のF1スコアで全ての評価指標で最高性能を達成した。
これは、最強のベースラインであるResNet-18と比較して、精度が+2.03%、F1スコアが+1.98%向上したことを意味する。
提案手法は, 積極的画像前処理や関心領域の刈り取りに頼らずに頑健な性能を示し, 非診断フレームの識別性を向上した。
関連論文リスト
- Improved cystic hygroma detection from prenatal imaging using ultrasound-specific self-supervised representation learning [0.18058404137575482]
嚢胞性横隔膜腫(Cystic hygroma)は、高リスク出生前超音波検査で、染色体異常、構造的異常、および妊娠の悪影響を呈する。
本研究は,第1トリメスター超音波画像において,超音波による自己教師付き事前訓練が,嚢胞性肥大症を高精度かつ堅牢に検出するのに役立つかどうかを検証した。
論文 参考訳(メタデータ) (2025-12-28T00:07:26Z) - Self-Supervised Ultrasound Representation Learning for Renal Anomaly Prediction in Prenatal Imaging [0.19544534628180868]
自動胎児腎異常分類のための自己教師型超音波基礎モデルの性能評価を行った。
モデルはクロスバリデーションと独立したテストセットを使用したDenseNet-169畳み込みベースラインと比較された。
AUCは16.28%、F1スコアは46.15%向上した。
論文 参考訳(メタデータ) (2025-12-15T15:28:02Z) - Deep Learning Analysis of Prenatal Ultrasound for Identification of Ventriculomegaly [0.17476892297485447]
心膜腫は胎児の脳室拡張を特徴とする出生前状態である。
提案モデルでは,OpenUS-46コーパスから370,000枚以上の超音波画像に予めトレーニングしたビジョントランスフォーマーエンコーダを組み込んだ。
モデルは5倍のクロスバリデーションで91.76%、独立したテストセットで91.78%のF1スコアに達した。
論文 参考訳(メタデータ) (2025-11-11T04:45:48Z) - USF-MAE: Ultrasound Self-Supervised Foundation Model with Masked Autoencoding [0.205246094017924]
マスク付き自動符号化(USF-MAE)を用いた超音波自己監督基礎モデルについて紹介する。
USF-MAEは超音波データのみに事前訓練された最初の大規模自己監督型MAEフレームワークである。
このモデルは、46のオープンソースデータセットから算出された370,000の2Dおよび3D超音波画像で事前訓練された。
論文 参考訳(メタデータ) (2025-10-27T04:16:43Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - CNN-CASS: CNN for Classification of Coronary Artery Stenosis Score in
MPR Images [0.0]
MPR画像における狭窄の重症度を同定する自動モデルを開発した。
このモデルは3つのクラスのうちの1つを予測している: 正常の'no stenosis'、検出された'non-significant' - 1-50%の狭窄、'significant' - 50%以上の狭窄。
狭窄スコア分類では, 従来の検査結果と比較して, 80%の精度で精度が向上した。
論文 参考訳(メタデータ) (2020-01-23T15:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。