論文の概要: Self-Supervised Ultrasound Representation Learning for Renal Anomaly Prediction in Prenatal Imaging
- arxiv url: http://arxiv.org/abs/2512.13434v1
- Date: Mon, 15 Dec 2025 15:28:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.723108
- Title: Self-Supervised Ultrasound Representation Learning for Renal Anomaly Prediction in Prenatal Imaging
- Title(参考訳): 出生前画像における腎異常予測のための自己教師付き超音波表現学習
- Authors: Youssef Megahed, Inok Lee, Robin Ducharme, Kevin Dick, Adrian D. C. Chan, Steven Hawken, Mark C. Walker,
- Abstract要約: 自動胎児腎異常分類のための自己教師型超音波基礎モデルの性能評価を行った。
モデルはクロスバリデーションと独立したテストセットを使用したDenseNet-169畳み込みベースラインと比較された。
AUCは16.28%、F1スコアは46.15%向上した。
- 参考スコア(独自算出の注目度): 0.19544534628180868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prenatal ultrasound is the cornerstone for detecting congenital anomalies of the kidneys and urinary tract, but diagnosis is limited by operator dependence and suboptimal imaging conditions. We sought to assess the performance of a self-supervised ultrasound foundation model for automated fetal renal anomaly classification using a curated dataset of 969 two-dimensional ultrasound images. A pretrained Ultrasound Self-Supervised Foundation Model with Masked Autoencoding (USF-MAE) was fine-tuned for binary and multi-class classification of normal kidneys, urinary tract dilation, and multicystic dysplastic kidney. Models were compared with a DenseNet-169 convolutional baseline using cross-validation and an independent test set. USF-MAE consistently improved upon the baseline across all evaluation metrics in both binary and multi-class settings. USF-MAE achieved an improvement of about 1.87% (AUC) and 7.8% (F1-score) on the validation set, 2.32% (AUC) and 4.33% (F1-score) on the independent holdout test set. The largest gains were observed in the multi-class setting, where the improvement in AUC was 16.28% and 46.15% in F1-score. To facilitate model interpretability, Score-CAM visualizations were adapted for a transformer architecture and show that model predictions were informed by known, clinically relevant renal structures, including the renal pelvis in urinary tract dilation and cystic regions in multicystic dysplastic kidney. These results show that ultrasound-specific self-supervised learning can generate a useful representation as a foundation for downstream diagnostic tasks. The proposed framework offers a robust, interpretable approach to support the prenatal detection of renal anomalies and demonstrates the promise of foundation models in obstetric imaging.
- Abstract(参考訳): 出生前超音波検査は腎臓と尿路の先天性異常を診断するための基盤となるが,術者依存性や術中画像所見によって診断が制限される。
そこで我々は,969枚の2次元超音波画像のキュレートしたデータセットを用いて,胎児腎異常の自動分類のための自己監督型超音波基礎モデルの性能評価を試みた。
正常腎,尿路拡張,多嚢胞性異形成腎の2値・多値分類のために,masked Autoencoding (USF-MAE) を併用した事前訓練型超音波自己監督ファンデーションモデル(Ultrasound Self-Supervised Foundation Model)を作製した。
モデルはクロスバリデーションと独立したテストセットを使用したDenseNet-169畳み込みベースラインと比較された。
USF-MAEは、バイナリとマルチクラスの両方の設定において、すべての評価指標のベースラインを一貫して改善した。
USF-MAEは、検証セットで約1.87%(AUC)と7.8%(F1スコア)、独立したホールドアウトテストセットで2.32%(AUC)と4.33%(F1スコア)の改善を達成した。
AUCは16.28%、F1スコアは46.15%向上した。
モデル解釈を容易にするため、Score-CAMの可視化はトランスフォーマーアーキテクチャに適応し、尿路拡張の腎骨盤や多嚢胞性異形成腎の嚢胞領域など、臨床的に関係のある既知の腎構造からモデル予測が示唆された。
以上の結果から,超音波固有の自己教師型学習が下流診断の基盤として有用な表現を生み出すことが示唆された。
提案する枠組みは、出生前腎腫瘍の検出を支援する頑健で解釈可能なアプローチを提供し、産科的画像診断の基礎モデルの可能性を実証するものである。
関連論文リスト
- A Deep Learning Framework for Thyroid Nodule Segmentation and Malignancy Classification from Ultrasound Images [2.875000842489767]
本稿では,完全自動化された悪性度予測のための2段階のフレームワークを提案する。
本手法は,臨床的に関係のある領域にのみ集中させ,解釈可能性を実現する。
これは、超音波画像上で甲状腺結節を検出し、悪性度を予測するための、最初の完全なエンドツーエンドパイプラインである。
論文 参考訳(メタデータ) (2025-11-14T23:23:24Z) - Deep Learning Analysis of Prenatal Ultrasound for Identification of Ventriculomegaly [0.17476892297485447]
心膜腫は胎児の脳室拡張を特徴とする出生前状態である。
提案モデルでは,OpenUS-46コーパスから370,000枚以上の超音波画像に予めトレーニングしたビジョントランスフォーマーエンコーダを組み込んだ。
モデルは5倍のクロスバリデーションで91.76%、独立したテストセットで91.78%のF1スコアに達した。
論文 参考訳(メタデータ) (2025-11-11T04:45:48Z) - Challenging DINOv3 Foundation Model under Low Inter-Class Variability: A Case Study on Fetal Brain Ultrasound [4.07447364754644]
本研究は, 胎児超音波(US)画像の基礎モデルについて, クラス間変動の少ない条件下での総合評価を行った。
われわれは胎児脳標準平面(TT)、経室(TV)、経脳小脳(TC))に焦点をあて、高い重なり合いの解剖学的特徴を示した。
胎児超音波データで事前訓練されたモデルは、F1スコアの最大20%の重み付けにより、自然画像よりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-11-01T13:37:22Z) - An Explainable Hybrid AI Framework for Enhanced Tuberculosis and Symptom Detection [55.35661671061754]
結核は、特に資源に制限された遠隔地において、重要な世界的な健康問題である。
本稿では, 胸部X線による疾患および症状の検出を, 2つの頭部と自己監督頭部を統合することで促進する枠組みを提案する。
本モデルでは, 新型コロナウイルス, 結核, 正常症例の鑑別で98.85%の精度が得られ, マルチラベル症状検出では90.09%のマクロF1スコアが得られた。
論文 参考訳(メタデータ) (2025-10-21T17:18:55Z) - Epistemic-aware Vision-Language Foundation Model for Fetal Ultrasound Interpretation [83.02147613524032]
医療用AIシステムFetalMindについて報告する。
本稿では、専門家による2部グラフをモデルに注入し、ビュー・ディスリーズ関連を分離するSED(Salient Epistemic Disentanglement)を提案する。
FetalMindはすべての妊娠期のオープンソースおよびクローズドソースベースラインを上回り、平均利得は+14%、臨界条件では+61.2%高い。
論文 参考訳(メタデータ) (2025-10-14T19:57:03Z) - Multimodal Deep Learning for Phyllodes Tumor Classification from Ultrasound and Clinical Data [0.29981448312652675]
Phyllodes tumors (PTs) は良性線維腺腫との放射線学的類似性から術前の分類が困難である。
乳房超音波(BUS)画像を構造化された臨床データと統合して診断精度を向上させるマルチモーダルディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-29T19:54:11Z) - Advancing Fetal Ultrasound Image Quality Assessment in Low-Resource Settings [3.982826074217475]
FetalCLIPは、210,000以上の胎児超音波画像言語対のキュレートデータセットに事前訓練されたビジョンキャプションモデルである。
本稿では、LoRA(Lo-Rank Adaptation)を用いてFetalCLIPから適応したIQAモデルを導入し、ACOUS-AIデータセット上で評価する。
適応セグメンテーションモデルでは,分類に再利用することで,F1スコアの0.771を達成し,さらなる性能向上が期待できる。
論文 参考訳(メタデータ) (2025-07-30T16:09:29Z) - Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。