論文の概要: Two-Stream Thermal Imaging Fusion for Enhanced Time of Birth Detection in Neonatal Care
- arxiv url: http://arxiv.org/abs/2503.03244v1
- Date: Wed, 05 Mar 2025 07:52:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 17:18:40.877375
- Title: Two-Stream Thermal Imaging Fusion for Enhanced Time of Birth Detection in Neonatal Care
- Title(参考訳): 新生児診断における2ストリーム熱画像融合法の有用性
- Authors: Jorge García-Torres, Øyvind Meinich-Bache, Sara Brunner, Siren Rettedal, Vilde Kolstad, Kjersti Engan,
- Abstract要約: 出生時刻(ToB)を正確に検出するために、画像とビデオ分析のパワーを組み合わせた2ストリーム融合システムを提案する。
本システムは,短いビデオクリップ内での出生検出において,95.7%の精度と84.8%のリコールを実現する。
- 参考スコア(独自算出の注目度): 1.101731711817642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Around 10% of newborns require some help to initiate breathing, and 5\% need ventilation assistance. Accurate Time of Birth (ToB) documentation is essential for optimizing neonatal care, as timely interventions are vital for proper resuscitation. However, current clinical methods for recording ToB often rely on manual processes, which can be prone to inaccuracies. In this study, we present a novel two-stream fusion system that combines the power of image and video analysis to accurately detect the ToB from thermal recordings in the delivery room and operating theater. By integrating static and dynamic streams, our approach captures richer birth-related spatiotemporal features, leading to more robust and precise ToB estimation. We demonstrate that this synergy between data modalities enhances performance over single-stream approaches. Our system achieves 95.7% precision and 84.8% recall in detecting birth within short video clips. Additionally, with the help of a score aggregation module, it successfully identifies ToB in 100% of test cases, with a median absolute error of 2 seconds and an absolute mean deviation of 4.5 seconds compared to manual annotations.
- Abstract(参考訳): 新生児の約10%は呼吸を開始するのに何らかの助けを必要とし、55%は換気補助を必要とする。
正確な出生時刻 (ToB) の文書化は新生児ケアの最適化に不可欠であり, 適切な蘇生には時間的介入が不可欠である。
しかし、ToBを記録するための現在の臨床手法は、しばしば手動のプロセスに依存しており、不正確な場合が多い。
本研究では,映像解析と映像解析を併用した新しい2ストリーム融合システムを提案し,宅配室や手術室での熱記録からToBを正確に検出する。
静的ストリームと動的ストリームを統合することで、よりリッチな出生関連時空間的特徴を捉えることができ、より堅牢で正確なToB推定が可能になる。
データモダリティ間のこの相乗効果がシングルストリームアプローチよりも性能を向上させることを実証する。
本システムは,短いビデオクリップ内での出生検出において,95.7%の精度と84.8%のリコールを実現する。
さらに、スコアアグリゲーションモジュールの助けを借りて、ToBを100%テストケースで識別し、中央値の絶対誤差は2秒、絶対値の偏差は手動のアノテーションと比較して4.5秒である。
関連論文リスト
- Synergistic Bleeding Region and Point Detection in Surgical Videos [58.52416525595543]
腹腔鏡下手術における術中出血は外科的経過を妨げるために手術野の急激な閉塞を引き起こす。
本研究では,95の手術用ビデオクリップから5,330フレームの出血領域と点アノテーションを備えた実世界の外科用出血検出データセット,SurgBloodを構築した。
手術ビデオにおける出血領域と点の同時検出を実現するために,BlooDetというマルチタスク・シナジスティックオンライン検出器を開発した。
論文 参考訳(メタデータ) (2025-03-28T06:27:55Z) - Finetuning and Quantization of EEG-Based Foundational BioSignal Models on ECG and PPG Data for Blood Pressure Estimation [53.2981100111204]
光胸腺撮影と心電図は、連続血圧モニタリング(BP)を可能にする可能性がある。
しかし、データ品質と患者固有の要因の変化のため、正確で堅牢な機械学習(ML)モデルは依然として困難である。
本研究では,1つのモータリティで事前学習したモデルを効果的に利用して,異なる信号タイプの精度を向上させる方法について検討する。
本手法は, 拡張期BPの最先端精度を約1.5倍に向上し, 拡張期BPの精度を1.5倍に向上させる。
論文 参考訳(メタデータ) (2025-02-10T13:33:12Z) - AI-Based Thermal Video Analysis in Privacy-Preserving Healthcare: A Case Study on Detecting Time of Birth [1.2524536193679123]
熱画像を用いた自動ToB検出のためのAI駆動ビデオベースシステムを提案する。
性能評価中に熱ビデオクリップ中のToBの検出において,91.4%の精度,97.4%のリコールを実現した。
論文 参考訳(メタデータ) (2025-02-05T07:01:49Z) - Advancing Newborn Care: Precise Birth Time Detection Using AI-Driven Thermal Imaging with Adaptive Normalization [1.101731711817642]
本稿では,人工知能(AI)とサーマルイメージングの融合について検討し,第1次AI駆動型バース検出器の開発について述べる。
まず,ガウス混合モデル(GMM)に基づく適応正規化手法を提案し,温度変動に関する問題を緩和する。
熱フレーム内での新生児の検出において、88.1%の精度と89.3%のリコールが報告されている。
論文 参考訳(メタデータ) (2024-10-14T13:20:51Z) - Automatic Infant Respiration Estimation from Video: A Deep Flow-based
Algorithm and a Novel Public Benchmark [10.097634735211654]
本研究では,自然環境下での映像から呼吸速度と波形を推定する深層学習法を開発した。
本モデルでは,125本のビデオによる乳幼児呼吸データセットを作成した。
乳児のAIR-125データを用いて訓練, 試験を行ったところ, 呼吸速度推定における他の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-07-24T19:59:15Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware Prostate Cancer Classification [42.75911994044675]
前立腺MRIの非対位画像翻訳のための新しいアプローチと臨床的に重要なPCaを分類するための不確実性認識トレーニングアプローチを提案する。
提案手法では,無ペアの3.0T多パラメータ前立腺MRIを1.5Tに翻訳し,利用可能なトレーニングデータを増強する。
実験の結果,提案手法は,従来の研究に比べてAUC(Area Under ROC Curve)を20%以上改善することがわかった。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - Object Detection During Newborn Resuscitation Activities [3.5661795505491445]
本稿では,2段階のプロセスを提案する。
最初のステップは、バッグマスクの蘇生装置や心拍センサーなど、関連するオブジェクトを検出し、追跡することだ。
運動中の物体検出性能は96.97 %(換気)、100 %(心拍センサーの装着/除去)、75 %(吸引)であった。
論文 参考訳(メタデータ) (2023-03-14T11:04:50Z) - Activity Recognition From Newborn Resuscitation Videos [3.54339629317433]
タンザニアのヘイドムで、ビデオを含む新生児の蘇生中に記録された信号のデータセットが収集された。
新生児の蘇生時に活動認識を行うための2段階のディープニューラルネットワークシステムORAA-netを提案する。
このシステムは、新生児の活動、刺激、換気、吸引を平均精度77.67 %、平均リコール77,64 %、平均精度92.40 %と認識した。
論文 参考訳(メタデータ) (2023-03-14T11:04:32Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Finding Action Tubes with a Sparse-to-Dense Framework [62.60742627484788]
本稿では,ビデオストリームからのアクションチューブ提案を1つのフォワードパスでスパース・トゥ・デンス方式で生成するフレームワークを提案する。
UCF101-24, JHMDB-21, UCFSportsベンチマークデータセット上で, 本モデルの有効性を評価する。
論文 参考訳(メタデータ) (2020-08-30T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。