論文の概要: Benchmarking Self-Supervised Models for Cardiac Ultrasound View Classification
- arxiv url: http://arxiv.org/abs/2602.15339v1
- Date: Tue, 17 Feb 2026 04:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.976172
- Title: Benchmarking Self-Supervised Models for Cardiac Ultrasound View Classification
- Title(参考訳): 心エコービュー分類のための自己監督モデルベンチマーク
- Authors: Youssef Megahed, Salma I. Megahed, Robin Ducharme, Inok Lee, Adrian D. C. Chan, Mark C. Walker, Steven Hawken,
- Abstract要約: 我々は,我々のチームが開発した USFMAE と MoCo v3 の2つの自己教師型学習フレームワークを,A4C,PL,PSAV,PSMV,Random,SC) の自動心磁図のための CACTUS データセット (37,736 画像) で評価し,比較した。
以上の結果から,USF-MAEは指標間でMoCo v3を一貫して上回っていることが示唆された。
- 参考スコア(独自算出の注目度): 0.19544534628180868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable interpretation of cardiac ultrasound images is essential for accurate clinical diagnosis and assessment. Self-supervised learning has shown promise in medical imaging by leveraging large unlabelled datasets to learn meaningful representations. In this study, we evaluate and compare two self-supervised learning frameworks, USF-MAE, developed by our team, and MoCo v3, on the recently introduced CACTUS dataset (37,736 images) for automated simulated cardiac view (A4C, PL, PSAV, PSMV, Random, and SC) classification. Both models used 5-fold cross-validation, enabling robust assessment of generalization performance across multiple random splits. The CACTUS dataset provides expert-annotated cardiac ultrasound images with diverse views. We adopt an identical training protocol for both models to ensure a fair comparison. Both models are configured with a learning rate of 0.0001 and a weight decay of 0.01. For each fold, we record performance metrics including ROC-AUC, accuracy, F1-score, and recall. Our results indicate that USF-MAE consistently outperforms MoCo v3 across metrics. The average testing AUC for USF-MAE is 99.99% (+/-0.01% 95% CI), compared to 99.97% (+/-0.01%) for MoCo v3. USF-MAE achieves a mean testing accuracy of 99.33% (+/-0.18%), higher than the 98.99% (+/-0.28%) reported for MoCo v3. Similar trends are observed for the F1-score and recall, with improvements statistically significant across folds (paired t-test, p=0.0048 < 0.01). This proof-of-concept analysis suggests that USF-MAE learns more discriminative features for cardiac view classification than MoCo v3 when applied to this dataset. The enhanced performance across multiple metrics highlights the potential of USF-MAE for improving automated cardiac ultrasound classification.
- Abstract(参考訳): 心エコー画像の信頼性は、正確な臨床診断と評価に不可欠である。
自己教師付き学習は、意味のある表現を学習するために、大きなラベルのないデータセットを活用することで、医療画像において有望であることを示している。
本研究では、我々のチームが開発した2つの自己教師型学習フレームワークであるUSF-MAEとMoCo v3を、自動心磁図(A4C、PL、PSAV、PSMV、Random、SC)のためのCACTUSデータセット(37,736画像)で評価、比較した。
どちらのモデルも5倍のクロスバリデーションを使用し、複数のランダムスプリットにわたる一般化性能のロバストな評価を可能にした。
CACTUSデータセットは、さまざまなビューで専門家が注釈を付けた心臓超音波画像を提供する。
両モデルに同一のトレーニングプロトコルを採用し、公正な比較を確実にする。
どちらのモデルも 0.0001 の学習率と 0.001 の重量減衰で構成されている。
各フォルダに対して、ROC-AUC、精度、F1スコア、リコールなどのパフォーマンス指標を記録します。
以上の結果から,USF-MAEは指標間でMoCo v3を一貫して上回っていることが示唆された。
USF-MAEの平均テストAUCは99.99%(+/-0.01% 95% CI)、MoCo v3は99.97%(+/-0.01%)である。
USF-MAEの平均試験精度は99.33%(+/-0.18%)で、MoCo v3で報告された98.99%(+/-0.28%)よりも高い。
同様の傾向がF1スコアやリコールで見られ、統計学的に有意な改善(p=0.0048 < 0.01)がある。
この概念実証分析は、USF-MAEが、このデータセットに適用した場合のMoCo v3よりも、心臓の視線分類におけるより差別的な特徴を学習していることを示唆している。
複数の指標にまたがる性能の向上は、自動心臓超音波分類を改善するUSF-MAEの可能性を強調している。
関連論文リスト
- Automated Classification of First-Trimester Fetal Heart Views Using Ultrasound-Specific Self-Supervised Learning [0.205246094017924]
本研究は,第1トリメスター胎児心電図分類のための自己監督型超音波基礎モデルUSF-MAEの評価である。
USF-MAEは、370,000枚以上の未標識超音波画像のマスク付き自己符号化モデルを用いて事前訓練される。
全評価指標で最高性能を達成し、90.57%の精度、91.15%の精度、90.57%のリコール、90.71%のF1スコアを記録した。
論文 参考訳(メタデータ) (2025-12-30T22:24:26Z) - Improved cystic hygroma detection from prenatal imaging using ultrasound-specific self-supervised representation learning [0.18058404137575482]
嚢胞性横隔膜腫(Cystic hygroma)は、高リスク出生前超音波検査で、染色体異常、構造的異常、および妊娠の悪影響を呈する。
本研究は,第1トリメスター超音波画像において,超音波による自己教師付き事前訓練が,嚢胞性肥大症を高精度かつ堅牢に検出するのに役立つかどうかを検証した。
論文 参考訳(メタデータ) (2025-12-28T00:07:26Z) - Deep learning-based segmentation of T1 and T2 cardiac MRI maps for automated disease detection [0.2593137041747032]
組織マッピングは、定量的な心臓組織評価を可能にするが、手動のデライン化において、オブザーバ間の変動によって制限される。
平均緩和値と単一カットオフに依存する従来のアプローチは、複雑さを過度に単純化する可能性がある。
本研究では,機械学習がサーバ間変動に匹敵するセグメンテーション精度を達成できるかどうかを評価する。
論文 参考訳(メタデータ) (2025-07-01T16:08:54Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [56.99710477905796]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Vision Transformer for Efficient Chest X-ray and Gastrointestinal Image
Classification [2.3293678240472517]
本研究では,多種多様なCNNとトランスフォーマーを用いたデータ拡張手法を提案する。
異なるモダリティから3つの医用画像データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-04-23T04:07:03Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - How well do U-Net-based segmentation trained on adult cardiac magnetic
resonance imaging data generalise to rare congenital heart diseases for
surgical planning? [2.330464988780586]
先天性心疾患(TOF)患者における肺弁置換術の適応時期は, 主に心室容積と機能に基づく。
過去数年間のいくつかの大きな課題において、U-Netアーキテクチャは提供されたデータに対して印象的な結果を示している。
しかし、臨床実践においては、個々の病理や異なるスキャナー特性から派生した画像特性を考えると、データセットはより多様である。
論文 参考訳(メタデータ) (2020-02-10T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。