論文の概要: Towards Objective Obstetric Ultrasound Assessment: Contrastive Representation Learning for Fetal Movement Detection
- arxiv url: http://arxiv.org/abs/2510.20214v1
- Date: Thu, 23 Oct 2025 05:03:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.418476
- Title: Towards Objective Obstetric Ultrasound Assessment: Contrastive Representation Learning for Fetal Movement Detection
- Title(参考訳): 客観的超音波検査に向けて:胎児運動検出のためのコントラスト表現学習
- Authors: Talha Ilyas, Duong Nhu, Allison Thomas, Arie Levin, Lim Wei Yap, Shu Gong, David Vera Anaya, Yiwen Jiang, Deval Mehta, Ritesh Warty, Vinayak Smith, Maya Reddy, Euan Wallace, Wenlong Cheng, Zongyuan Ge, Faezeh Marzbanrad,
- Abstract要約: 胎児運動分析のための自己教師型学習フレームワークであるContrastive Ultrasound Video Representation Learning (CURL)を提案する。
CURLの感度は78.01%、AUROCは81.60%であり、信頼性と客観的なFM分析の可能性を示している。
- 参考スコア(独自算出の注目度): 11.146143798185927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate fetal movement (FM) detection is essential for assessing prenatal health, as abnormal movement patterns can indicate underlying complications such as placental dysfunction or fetal distress. Traditional methods, including maternal perception and cardiotocography (CTG), suffer from subjectivity and limited accuracy. To address these challenges, we propose Contrastive Ultrasound Video Representation Learning (CURL), a novel self-supervised learning framework for FM detection from extended fetal ultrasound video recordings. Our approach leverages a dual-contrastive loss, incorporating both spatial and temporal contrastive learning, to learn robust motion representations. Additionally, we introduce a task-specific sampling strategy, ensuring the effective separation of movement and non-movement segments during self-supervised training, while enabling flexible inference on arbitrarily long ultrasound recordings through a probabilistic fine-tuning approach. Evaluated on an in-house dataset of 92 subjects, each with 30-minute ultrasound sessions, CURL achieves a sensitivity of 78.01% and an AUROC of 81.60%, demonstrating its potential for reliable and objective FM analysis. These results highlight the potential of self-supervised contrastive learning for fetal movement analysis, paving the way for improved prenatal monitoring and clinical decision-making.
- Abstract(参考訳): 胎児の正確な運動(FM)検出は、胎盤機能障害や胎児の苦痛といった基礎的な合併症を示す異常な運動パターンとして、出生前の健康を評価するのに不可欠である。
母性知覚や心電図(CTG)を含む伝統的な手法は、主観性と限られた精度に悩まされている。
これらの課題に対処するために,拡張胎児超音波ビデオ記録からのFM検出のための新しい自己教師付き学習フレームワークであるContrastive Ultrasound Video Representation Learning (CURL)を提案する。
本手法は、空間的および時間的コントラスト学習を取り入れた二重コントラスト的損失を利用して、ロバストな動き表現を学習する。
さらに、タスク固有のサンプリング戦略を導入し、自己教師付きトレーニング中の運動と非運動セグメントの効果的分離を確保するとともに、確率論的微調整アプローチによる任意長超音波記録の柔軟な推測を可能にした。
92人の被験者の社内データセットで評価され、それぞれ30分間の超音波セッションがあり、感度は78.01%、AUROCは81.60%に達し、信頼性と客観的なFM分析の可能性を示している。
これらの結果は、胎児運動分析における自己指導型コントラスト学習の可能性を強調し、出生前モニタリングの改善と臨床的意思決定への道を開いた。
関連論文リスト
- Epistemic-aware Vision-Language Foundation Model for Fetal Ultrasound Interpretation [83.02147613524032]
医療用AIシステムFetalMindについて報告する。
本稿では、専門家による2部グラフをモデルに注入し、ビュー・ディスリーズ関連を分離するSED(Salient Epistemic Disentanglement)を提案する。
FetalMindはすべての妊娠期のオープンソースおよびクローズドソースベースラインを上回り、平均利得は+14%、臨界条件では+61.2%高い。
論文 参考訳(メタデータ) (2025-10-14T19:57:03Z) - FHRFormer: A Self-supervised Transformer Approach for Fetal Heart Rate Inpainting and Forecasting [0.34202935599316514]
胎児心拍数(FHR)モニタリングは、出生前医療における胎児の健康を評価する上で重要な役割を担っている。
人工知能(AI)手法を適用して、持続的なFHR監視エピソードの大規模なデータセットを分析することで、呼吸補助や介入を必要とするリスクを予測する新たな洞察が得られるかもしれない。
マスク付きトランスフォーマーを用いたオートエンコーダ手法を提案し, 空間成分と周波数成分の両方を捕捉することにより, 欠落したFHR信号を再構成する。
論文 参考訳(メタデータ) (2025-09-25T07:40:21Z) - Determining Fetal Orientations From Blind Sweep Ultrasound Video [1.3456699275044242]
この作品は、自動化された胎児の嘘予測を導入し、それを置き換えるのではなく、ソノグラフィーの専門知識を強化する補助パラダイムを提案することで、自分自身を区別している。
今後の研究は、取得効率の向上と、ワークフローを改善するためのリアルタイム臨床統合と、産科医のサポートに焦点をあてる。
論文 参考訳(メタデータ) (2025-04-09T12:51:15Z) - Goal-conditioned reinforcement learning for ultrasound navigation guidance [4.648318344224063]
目標条件強化学習(G)としてのコントラスト学習に基づく新しい超音波ナビゲーション支援手法を提案する。
我々は,新しいコントラスト的患者法 (CPB) とデータ拡張型コントラスト的損失を用いて,従来の枠組みを拡張した。
提案法は, 789人の大容量データセットを用いて開発され, 平均誤差は6.56mm, 9.36°であった。
論文 参考訳(メタデータ) (2024-05-02T16:01:58Z) - A Survey of the Impact of Self-Supervised Pretraining for Diagnostic
Tasks with Radiological Images [71.26717896083433]
自己教師付き事前学習は,伝達学習における特徴表現の改善に有効であることが観察されている。
本総説ではX線, CT, 磁気共鳴, 超音波画像における使用法について概説する。
論文 参考訳(メタデータ) (2023-09-05T19:45:09Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Deep learning in the ultrasound evaluation of neonatal respiratory
status [11.308283140003676]
肺超音波検査は科学界から関心を集めている。
画像解析とパターン認識のアプローチは、これらのデータに含まれる豊富な情報を十分に活用できることを証明している。
本稿では、近年のディープラーニングネットワークと、大規模かつ挑戦的なマルチセンターデータセット上で実施されているトレーニング戦略について、徹底的に分析する。
論文 参考訳(メタデータ) (2020-10-31T18:57:55Z) - Hybrid Attention for Automatic Segmentation of Whole Fetal Head in
Prenatal Ultrasound Volumes [52.53375964591765]
胎児の頭部全体を米国全巻に分割する,最初の完全自動化ソリューションを提案する。
セグメント化タスクは、まずエンコーダ-デコーダディープアーキテクチャの下で、エンドツーエンドのボリュームマッピングとして定式化される。
次に,セグメンタとハイブリットアテンションスキーム(HAS)を組み合わせることで,識別的特徴を選択し,非情報量的特徴を抑える。
論文 参考訳(メタデータ) (2020-04-28T14:43:05Z) - Bulbar ALS Detection Based on Analysis of Voice Perturbation and Vibrato [68.97335984455059]
本研究の目的は,ALS患者の自動検出のための持続母音発声テストの有用性を検証することである。
そこで我々は,音声信号から測定値の計算に必要な基本周期への分離手順の強化を提案した。
論文 参考訳(メタデータ) (2020-03-24T12:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。