論文の概要: Advancing Fetal Ultrasound Image Quality Assessment in Low-Resource Settings
- arxiv url: http://arxiv.org/abs/2507.22802v1
- Date: Wed, 30 Jul 2025 16:09:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.321154
- Title: Advancing Fetal Ultrasound Image Quality Assessment in Low-Resource Settings
- Title(参考訳): 低リソース環境における胎児超音波画像品質評価の改善
- Authors: Dongli He, Hu Wang, Mohammad Yaqub,
- Abstract要約: FetalCLIPは、210,000以上の胎児超音波画像言語対のキュレートデータセットに事前訓練されたビジョンキャプションモデルである。
本稿では、LoRA(Lo-Rank Adaptation)を用いてFetalCLIPから適応したIQAモデルを導入し、ACOUS-AIデータセット上で評価する。
適応セグメンテーションモデルでは,分類に再利用することで,F1スコアの0.771を達成し,さらなる性能向上が期待できる。
- 参考スコア(独自算出の注目度): 3.982826074217475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate fetal biometric measurements, such as abdominal circumference, play a vital role in prenatal care. However, obtaining high-quality ultrasound images for these measurements heavily depends on the expertise of sonographers, posing a significant challenge in low-income countries due to the scarcity of trained personnel. To address this issue, we leverage FetalCLIP, a vision-language model pretrained on a curated dataset of over 210,000 fetal ultrasound image-caption pairs, to perform automated fetal ultrasound image quality assessment (IQA) on blind-sweep ultrasound data. We introduce FetalCLIP$_{CLS}$, an IQA model adapted from FetalCLIP using Low-Rank Adaptation (LoRA), and evaluate it on the ACOUSLIC-AI dataset against six CNN and Transformer baselines. FetalCLIP$_{CLS}$ achieves the highest F1 score of 0.757. Moreover, we show that an adapted segmentation model, when repurposed for classification, further improves performance, achieving an F1 score of 0.771. Our work demonstrates how parameter-efficient fine-tuning of fetal ultrasound foundation models can enable task-specific adaptations, advancing prenatal care in resource-limited settings. The experimental code is available at: https://github.com/donglihe-hub/FetalCLIP-IQA.
- Abstract(参考訳): 腹腔周囲測定などの正確な胎児生体計測は、出生前医療において重要な役割を担っている。
しかし、これらの測定のために高品質な超音波画像を得ることは、ソノグラフィーの専門知識に大きく依存しており、訓練員の不足により低所得国では大きな課題となっている。
この問題に対処するために,210,000以上の胎児超音波画像キャプチャーペアのキュレートデータセット上に事前訓練された視覚言語モデルであるFetalCLIPを用いて,盲目的超音波データに対する胎児超音波画像品質自動評価(IQA)を行う。
FetalCLIP$_{CLS}$は、LoRA(Lo-Rank Adaptation)を用いてFetalCLIPから適応したIQAモデルであり、6つのCNNおよびTransformerベースラインに対してACOUSLIC-AIデータセット上で評価する。
FetalCLIP$_{CLS}$のスコアは0.757である。
さらに, 適応セグメンテーションモデルにより, 分類に再利用した場合, さらに性能が向上し, F1スコアが0.771となることを示す。
本研究は, 胎児超音波基礎モデルのパラメータ効率向上により, 課題特異的な適応が可能となり, 資源制限された環境下での出生前ケアが促進されることを示す。
実験コードは、https://github.com/donglihe-hub/FetalCLIP-IQA.comで公開されている。
関連論文リスト
- The Efficacy of Semantics-Preserving Transformations in Self-Supervised Learning for Medical Ultrasound [60.80780313225093]
本研究は, 肺超音波の自己教師あり学習におけるデータ拡張と前処理方略の影響を系統的に検討した。
画像領域に共通して使用されるベースラインパイプライン、超音波用に設計された新しいセマンティック保存パイプライン、両方のパイプラインから最も効果的な変換の蒸留セットの3つのデータ拡張パイプラインが評価された。
論文 参考訳(メタデータ) (2025-04-10T16:26:47Z) - FetalCLIP: A Visual-Language Foundation Model for Fetal Ultrasound Image Analysis [0.676810348604193]
FetalCLIPは胎児超音波画像の普遍的な表現を生成できる視覚言語基盤モデルである。
テキストと組み合わせた210,035個の胎児超音波画像から,マルチモーダル・ラーニング・アプローチを用いて事前訓練を行った。
論文 参考訳(メタデータ) (2025-02-20T18:30:34Z) - Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - Efficient Feature Extraction Using Light-Weight CNN Attention-Based Deep Learning Architectures for Ultrasound Fetal Plane Classification [3.998431476275487]
本稿では,最大のベンチマークデータセットを分類するために,軽量な人工知能アーキテクチャを提案する。
アプローチは、ImageNet1kで事前トレーニングされた軽量のEfficientNet機能抽出バックボーンから微調整される。
本手法は,特徴を洗練するためのアテンション機構と3層パーセプトロンを組み込んだもので,トップ1の96.25%,トップ2の99.80%,F1スコアの0.9576で優れた性能を実現している。
論文 参考訳(メタデータ) (2024-10-22T20:02:38Z) - Multi-Task Learning Approach for Unified Biometric Estimation from Fetal
Ultrasound Anomaly Scans [0.8213829427624407]
本稿では,頭部,腹部,大腿骨に領域を分類するマルチタスク学習手法を提案する。
頭部周囲の平均絶対誤差は1.08mm,腹部周囲は1.44mm,大腿骨骨長は1.10mm,分類精度は99.91%であった。
論文 参考訳(メタデータ) (2023-11-16T06:35:02Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Localizing Scan Targets from Human Pose for Autonomous Lung Ultrasound
Imaging [61.60067283680348]
新型コロナウイルス(COVID-19)の世界的なパンデミックの出現に伴い、超音波画像を完全に自動化する必要がある。
本稿では,学習型コンピュータビジョン技術を取り入れた,視覚に基づくデータ駆動方式を提案する。
本手法は、プローブ位置決めのための15.52mm(9.47mm)、プローブ方位のための4.32(3.69deg)の精度を達成し、全走査目標に対する誤差閾値25mm以下で成功率を80%以上とした。
論文 参考訳(メタデータ) (2022-12-15T14:34:12Z) - Enabling faster and more reliable sonographic assessment of gestational
age through machine learning [1.3238745915345225]
胎児超音波は出生前治療の不可欠な部分であり、妊娠年齢(GA)を推定するために用いられる。
我々は,標準平面画像を用いた画像モデル,フライトビデオを用いたビデオモデル,アンサンブルモデル(画像とビデオの組み合わせ)の3つのAIモデルを開発した。
これら3種は, 専門ソノグラフィーによる標準胎児バイオメトリに基づくGA推定よりも統計的に優れていた。
論文 参考訳(メタデータ) (2022-03-22T17:15:56Z) - Hybrid Attention for Automatic Segmentation of Whole Fetal Head in
Prenatal Ultrasound Volumes [52.53375964591765]
胎児の頭部全体を米国全巻に分割する,最初の完全自動化ソリューションを提案する。
セグメント化タスクは、まずエンコーダ-デコーダディープアーキテクチャの下で、エンドツーエンドのボリュームマッピングとして定式化される。
次に,セグメンタとハイブリットアテンションスキーム(HAS)を組み合わせることで,識別的特徴を選択し,非情報量的特徴を抑える。
論文 参考訳(メタデータ) (2020-04-28T14:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。