論文の概要: Real-Time Mobile Video Analytics for Pre-arrival Emergency Medical Services
- arxiv url: http://arxiv.org/abs/2511.14119v1
- Date: Tue, 18 Nov 2025 04:12:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.927181
- Title: Real-Time Mobile Video Analytics for Pre-arrival Emergency Medical Services
- Title(参考訳): 救急医療サービスにおけるリアルタイムモバイルビデオ分析
- Authors: Liuyi Jin, Amran Haroon, Radu Stoleru, Pasan Gunawardena, Michael Middleton, Jeeeun Kim,
- Abstract要約: 移動式ライブビデオ分析システムTeleEMSについて述べる。
TeleEMS Clientは携帯電話、スマートグラス、デスクトップで動作し、傍観者、途中のEMT、および911ディスパッチをサポートする。
EMSStreamの上に、サーバは3つのリアルタイム分析モジュールをホストしている。EMSLlamaによるオーディオ・ツー・シンプソン・アナリティクス、心拍数推定のための最先端のrメソッドを使用したビデオ・ツー・ヴィジュアル・アナリティクスである。
- 参考スコア(独自算出の注目度): 5.251367919801455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Timely and accurate pre-arrival video streaming and analytics are critical for emergency medical services (EMS) to deliver life-saving interventions. Yet, current-generation EMS infrastructure remains constrained by one-to-one video streaming and limited analytics capabilities, leaving dispatchers and EMTs to manually interpret overwhelming, often noisy or redundant information in high-stress environments. We present TeleEMS, a mobile live video analytics system that enables pre-arrival multimodal inference by fusing audio and video into a unified decision-making pipeline before EMTs arrive on scene. TeleEMS comprises two key components: TeleEMS Client and TeleEMS Server. The TeleEMS Client runs across phones, smart glasses, and desktops to support bystanders, EMTs en route, and 911 dispatchers. The TeleEMS Server, deployed at the edge, integrates EMS-Stream, a communication backbone that enables smooth multi-party video streaming. On top of EMSStream, the server hosts three real-time analytics modules: (1) audio-to-symptom analytics via EMSLlama, a domain-specialized LLM for robust symptom extraction and normalization; (2) video-to-vital analytics using state-of-the-art rPPG methods for heart rate estimation; and (3) joint text-vital analytics via PreNet, a multimodal multitask model predicting EMS protocols, medication types, medication quantities, and procedures. Evaluation shows that EMSLlama outperforms GPT-4o (exact-match 0.89 vs. 0.57) and that text-vital fusion improves inference robustness, enabling reliable pre-arrival intervention recommendations. TeleEMS demonstrates the potential of mobile live video analytics to transform EMS operations, bridging the gap between bystanders, dispatchers, and EMTs, and paving the way for next-generation intelligent EMS infrastructure.
- Abstract(参考訳): タイムリーで正確なビデオストリーミングと分析は、救急医療サービス(EMS)が救命医療の介入を行うのに不可欠である。
しかし、現在のEMSインフラストラクチャは、1対1のビデオストリーミングと限定的な分析機能によって制限されており、ディスペンサーとEMTは、高ストレス環境で圧倒的でノイズの多い、あるいは冗長な情報を手動で解釈する。
我々は,EMTが現場に到着する前に,音声と映像を統一的な意思決定パイプラインに融合させることにより,事前のマルチモーダル推論を可能にするモバイルライブビデオ分析システムであるTeleEMSを提案する。
TeleEMSはTeleEMS ClientとTeleEMS Serverの2つの主要なコンポーネントから構成される。
TeleEMS Clientは携帯電話、スマートグラス、デスクトップで動作し、傍観者、途中のEMT、および911ディスパッチをサポートする。
エッジにデプロイされたTeleEMS Serverは、スムーズなマルチパーティのビデオストリーミングを可能にする通信バックボーンであるEMS-Streamを統合している。
EMSStreamの上に、サーバは3つのリアルタイム分析モジュールをホストする: 1) EMSLlamaによるオーディオ・ツー・シンプソン・アナリティクス、 堅牢な症状抽出と正常化のためのドメイン特化LDM、(2) 心拍数推定のための最先端のrPPG法によるビデオ・ツー・ヴィジュアル分析、3) 共同テキスト・ビジュアル分析、PreNetによるマルチモーダル・マルチタスクモデル、EMSLlamaによるEMSLlamaによるオーディオ・ツー・シンプソン・アナリティクス、3) EMSプロトコル、薬物の種類、服薬量、プロシージャ。
EMSLlamaはGPT-4o(exact-match 0.89 vs。
TeleEMSは、モバイルライブビデオ分析によるEMS操作の変換、傍観者、ディスペンサー、EMT間のギャップの埋め、次世代のインテリジェントEMSインフラへの道を開く可能性を実証している。
関連論文リスト
- A Smart-Glasses for Emergency Medical Services via Multimodal Multitask Learning [7.284746127785293]
本稿では,EMSNetを利用したスマートグラスシステムであるEMSGlassと,EMSServeを,EMSシナリオに適した低遅延マルチモーダルサービスフレームワークとして提示する。
EMSNetはテキスト、バイタルサイン、シーンイメージを統合し、EMSインシデントに対する統合されたリアルタイム理解を構築する。
EMSServe は PyTorch のマルチモーダル推論による 1.9x -- 11.7x の高速化を実現している。
論文 参考訳(メタデータ) (2025-11-17T07:27:52Z) - EgoEMS: A High-Fidelity Multimodal Egocentric Dataset for Cognitive Assistance in Emergency Medical Services [3.0776354206437664]
EgoEMSは、最初のエンドツーエンド、高忠実、マルチモーダル、マルチパーソンのデータセットで、20時間以上の現実的、手続き的 EMS アクティビティをキャプチャする。
EgoEMSは、EMSの専門家と共同で開発され、国家標準に従って、オープンソースで低コストで複製可能なデータ収集システムを使用してキャプチャされる。
実時間マルチモーダルキーステップ認識と行動品質推定のためのベンチマークスイートを提案し,EMSのためのAI支援ツールの開発に不可欠である。
論文 参考訳(メタデータ) (2025-11-13T02:55:40Z) - Video-LMM Post-Training: A Deep Dive into Video Reasoning with Large Multimodal Models [78.32948112203228]
ビデオ理解はコンピュータビジョンにおける最も困難なフロンティアである。
近年,映像理解タスクにおいて,映像多時間モデルが顕著に出現している。
Surveyは、ビデオ-LMM能力を向上するための統一的なフレームワークを研究者や実践者に提供することを目的としている。
論文 参考訳(メタデータ) (2025-10-06T17:10:44Z) - Real-Time Multimodal Cognitive Assistant for Emergency Medical Services [4.669165383466683]
本稿では,エンド・ツー・エンドのウェアラブル認知アシスタントシステムであるCognitiveEMSを提案する。
緊急現場からのマルチモーダルデータのリアルタイム取得と分析に協力的な仮想パートナーとして機能する。
論文 参考訳(メタデータ) (2024-03-11T13:56:57Z) - IoMT-Blockchain based Secured Remote Patient Monitoring Framework for
Neuro-Stimulation Device [0.0]
患者からのリアルタイムの知覚データは、ウェアラブルIoMTデバイスの迅速な開発を通じて配信され、分析される。
モノのインターネットからのデータは収集され、分析され、単一の場所に格納される。
分散した性質のため、ブロックチェーン(BC)はこれらの問題を緩和することができる。
論文 参考訳(メタデータ) (2023-08-31T16:59:58Z) - FENXI: Deep-learning Traffic Analytics at the Edge [69.34903175081284]
本稿では,TPUを利用して複雑な解析を行うシステムであるFENXIを提案する。
FENXIは、さまざまな粒度で動作するオペレーションとトラフィック分析を分離する。
分析の結果,FENXIは限られた資源しか必要とせず,転送ラインレートのトラヒック処理を継続できることがわかった。
論文 参考訳(メタデータ) (2021-05-25T08:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。