論文の概要: EgoEMS: A High-Fidelity Multimodal Egocentric Dataset for Cognitive Assistance in Emergency Medical Services
- arxiv url: http://arxiv.org/abs/2511.09894v2
- Date: Sat, 15 Nov 2025 14:05:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.405294
- Title: EgoEMS: A High-Fidelity Multimodal Egocentric Dataset for Cognitive Assistance in Emergency Medical Services
- Title(参考訳): EgoEMS:救急医療における認知支援のための高信頼マルチモーダル・エゴセントリックデータセット
- Authors: Keshara Weerasinghe, Xueren Ge, Tessa Heick, Lahiru Nuwan Wijayasingha, Anthony Cortez, Abhishek Satpathy, John Stankovic, Homa Alemzadeh,
- Abstract要約: EgoEMSは、最初のエンドツーエンド、高忠実、マルチモーダル、マルチパーソンのデータセットで、20時間以上の現実的、手続き的 EMS アクティビティをキャプチャする。
EgoEMSは、EMSの専門家と共同で開発され、国家標準に従って、オープンソースで低コストで複製可能なデータ収集システムを使用してキャプチャされる。
実時間マルチモーダルキーステップ認識と行動品質推定のためのベンチマークスイートを提案し,EMSのためのAI支援ツールの開発に不可欠である。
- 参考スコア(独自算出の注目度): 3.0776354206437664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emergency Medical Services (EMS) are critical to patient survival in emergencies, but first responders often face intense cognitive demands in high-stakes situations. AI cognitive assistants, acting as virtual partners, have the potential to ease this burden by supporting real-time data collection and decision making. In pursuit of this vision, we introduce EgoEMS, the first end-to-end, high-fidelity, multimodal, multiperson dataset capturing over 20 hours of realistic, procedural EMS activities from an egocentric view in 233 simulated emergency scenarios performed by 62 participants, including 46 EMS professionals. Developed in collaboration with EMS experts and aligned with national standards, EgoEMS is captured using an open-source, low-cost, and replicable data collection system and is annotated with keysteps, timestamped audio transcripts with speaker diarization, action quality metrics, and bounding boxes with segmentation masks. Emphasizing realism, the dataset includes responder-patient interactions reflecting real-world emergency dynamics. We also present a suite of benchmarks for real-time multimodal keystep recognition and action quality estimation, essential for developing AI support tools for EMS. We hope EgoEMS inspires the research community to push the boundaries of intelligent EMS systems and ultimately contribute to improved patient outcomes.
- Abstract(参考訳): 救急医療サービス(EMS)は、緊急時に患者の生存に不可欠であるが、ファースト・レスポンサーは、高い状況下では、強い認知的要求に直面していることが多い。
AI認知アシスタントは、仮想パートナーとして機能し、リアルタイムのデータ収集と意思決定をサポートすることで、この負担を軽減する可能性がある。
このビジョンを追求するために、EgoEMSを紹介します。EgoEMSは、46名のEMS専門家を含む62名の参加者が実施した緊急シナリオを、エゴセントリックな視点で、20時間以上の現実的、手続き的EMSアクティビティを捉えた最初のエンドツーエンド、高忠実、マルチモーダル、マルチパーソンデータセットです。
EgoEMSは、EMSの専門家と共同で開発され、国家標準に準拠し、オープンソースで低コストで複製可能なデータ収集システムを使用してキャプチャされ、キーステップ、話者ダイアリゼーションを備えたタイムスタンプ付きオーディオ書き起こし、アクション品質メトリクス、セグメンテーションマスク付きバウンディングボックスで注釈付けされている。
リアリズムを強調するデータセットには、現実の緊急ダイナミクスを反映する応答者と患者の相互作用が含まれている。
リアルタイムマルチモーダルキーステップ認識とアクション品質推定のためのベンチマークも提示する。
EgoEMSが研究コミュニティに、インテリジェントなEMSシステムの境界を押し上げ、最終的には患者の成果に貢献することを願っています。
関連論文リスト
- REMONI: An Autonomous System Integrating Wearables and Multimodal Large Language Models for Enhanced Remote Health Monitoring [4.85305127684971]
本稿では、マルチモーダル大言語モデル(MLLM)、モノのインターネット(IoT)、ウェアラブルデバイスを統合した、自律型リモートヘルス監視システムREMONIを提案する。
このシステムは、バイタルサイン、特殊なウェアラブル(スマートウォッチなど)からの加速度計データ、そしてカメラから収集された患者のビデオクリップの視覚データを自動的に、継続的に収集する。
本システムの特徴は,医療従事者の問い合わせに応じて患者の活動や感情を検知・認識できるMLLMを用いて開発された自然言語処理コンポーネントである。
論文 参考訳(メタデータ) (2025-10-24T13:23:38Z) - Using AI to Optimize Patient Transfer and Resource Utilization During Mass-Casualty Incidents: A Simulation Platform [0.014285185279360277]
マスインシデント(MCI)は医療システムを圧倒し、急激な患者病院割り当ての決定を要求する。
我々は,患者の移動決定を最適化するために,深層強化学習に基づく意思決定支援AIエージェントを開発し,検証した。
MasTERはMCI管理シミュレーションのためのウェブアクセス可能なコマンドダッシュボードである。
論文 参考訳(メタデータ) (2025-09-10T16:46:54Z) - EgoLife: Towards Egocentric Life Assistant [60.51196061794498]
我々はEgoLifeを紹介した。EgoLifeは、AIを使ったウェアラブルグラスを通じて、個人の効率を向上するエゴセントリックなライフアシスタントを開発するプロジェクトだ。
我々は、6人の参加者が1週間一緒に暮らし、マルチモーダル・エゴセントリックなビデオキャプチャーにAIグラスを使用して日々の活動を継続的に記録し、同期された3人称ビデオ参照を行う総合的なデータ収集研究を行った。
この取り組みの結果、EgoLifeデータセットは、集中的なアノテーションを備えた300時間のエゴセントリック、対人、マルチビュー、マルチモーダルの日常生活データセットである。
私たちはEgoLifeQAを紹介します。EgoLifeQAは、長いコンテキスト、ライフ指向の質問応答タスクのスイートで、提供するように設計されています。
論文 参考訳(メタデータ) (2025-03-05T18:54:16Z) - LLMs Can Simulate Standardized Patients via Agent Coevolution [8.539733225671059]
標準化された患者(SP)を用いた医療従事者の養成は、依然として複雑な課題である。
EvoPatientは、患者エージェントと医師エージェントがマルチターン対話を通じて診断プロセスをシミュレートする、新しいシミュレートされた患者フレームワークである。
我々のフレームワークは、既存の推論手法を10%以上改善し、要求アライメントと人間の嗜好を改善する。
論文 参考訳(メタデータ) (2024-12-16T12:36:47Z) - Medchain: Bridging the Gap Between LLM Agents and Clinical Practice with Interactive Sequence [68.05876437208505]
臨床ワークフローの5つの重要な段階をカバーする12,163の臨床症例のデータセットであるMedChainを提示する。
フィードバック機構とMCase-RAGモジュールを統合したAIシステムであるMedChain-Agentも提案する。
論文 参考訳(メタデータ) (2024-12-02T15:25:02Z) - Real-Time Multimodal Cognitive Assistant for Emergency Medical Services [4.669165383466683]
本稿では,エンド・ツー・エンドのウェアラブル認知アシスタントシステムであるCognitiveEMSを提案する。
緊急現場からのマルチモーダルデータのリアルタイム取得と分析に協力的な仮想パートナーとして機能する。
論文 参考訳(メタデータ) (2024-03-11T13:56:57Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。