論文の概要: Leadership Assessment in Pediatric Intensive Care Unit Team Training
- arxiv url: http://arxiv.org/abs/2505.24389v1
- Date: Fri, 30 May 2025 09:19:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.875274
- Title: Leadership Assessment in Pediatric Intensive Care Unit Team Training
- Title(参考訳): 小児集中治療室チームトレーニングにおけるリーダーシップ評価
- Authors: Liangyang Ouyang, Yuki Sakai, Ryosuke Furuta, Hisataka Nozawa, Hikoro Matsui, Yoichi Sato,
- Abstract要約: 本稿では、自我中心のビジョンに基づく自動分析フレームワークを開発することにより、PICUチームのリーダーシップスキルを評価するタスクについて述べる。
指導力評価の重要指標として, 固定対象, アイコンタクト, 会話パターンなどの重要な行動指標を同定した。
- 参考スコア(独自算出の注目度): 12.775569777482566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the task of assessing PICU team's leadership skills by developing an automated analysis framework based on egocentric vision. We identify key behavioral cues, including fixation object, eye contact, and conversation patterns, as essential indicators of leadership assessment. In order to capture these multimodal signals, we employ Aria Glasses to record egocentric video, audio, gaze, and head movement data. We collect one-hour videos of four simulated sessions involving doctors with different roles and levels. To automate data processing, we propose a method leveraging REMoDNaV, SAM, YOLO, and ChatGPT for fixation object detection, eye contact detection, and conversation classification. In the experiments, significant correlations are observed between leadership skills and behavioral metrics, i.e., the output of our proposed methods, such as fixation time, transition patterns, and direct orders in speech. These results indicate that our proposed data collection and analysis framework can effectively solve skill assessment for training PICU teams.
- Abstract(参考訳): 本稿では、自我中心のビジョンに基づく自動分析フレームワークを開発することにより、PICUチームのリーダーシップスキルを評価するタスクについて述べる。
指導力評価の重要指標として, 固定対象, アイコンタクト, 会話パターンなどの重要な行動指標を同定した。
これらのマルチモーダル信号をキャプチャするために、私たちはAria Glassesを使用して、エゴセントリックなビデオ、オーディオ、視線、頭の動きデータを記録します。
医師の役割やレベルの異なる4つのシミュレートされたセッションの1時間のビデオを収集した。
データ処理を自動化するために,REMoDNaV,SAM,YOLO,ChatGPTを固定オブジェクト検出,アイコンタクト検出,会話分類に活用する手法を提案する。
実験では,指導力と行動指標,すなわち固定時間,遷移パターン,音声の直接順序といった提案手法の出力との間に有意な相関が認められた。
これらの結果から,提案したデータ収集分析フレームワークは,PICUチームトレーニングのスキルアセスメントを効果的に解決できることが示唆された。
関連論文リスト
- Playpen: An Environment for Exploring Learning Through Conversational Interaction [81.67330926729015]
本研究は,対話ゲームが学習のフィードバック信号の源として機能するかどうかを考察する。
本稿では,対話ゲームによるオフラインおよびオンライン学習環境であるPlaypenを紹介する。
SFTによる模倣学習は、目に見えないインスタンスのパフォーマンスを向上させるが、他のスキルに悪影響を及ぼす。
論文 参考訳(メタデータ) (2025-04-11T14:49:33Z) - Automating Feedback Analysis in Surgical Training: Detection, Categorization, and Assessment [65.70317151363204]
本研究は,非構造化現実記録からの外科的対話を再構築するための最初の枠組みを紹介する。
外科訓練では,ライブ手術中に訓練者に提供する形式的言語フィードバックは,安全性の確保,行動の即時修正,長期的スキル獲得の促進に不可欠である。
本フレームワークは,音声活動の検出,話者ダイアリゼーション,自動音声認識と,幻覚を除去する新たな拡張機能を統合する。
論文 参考訳(メタデータ) (2024-12-01T10:35:12Z) - WearableMil: An End-to-End Framework for Military Activity Recognition and Performance Monitoring [7.130450173185638]
本稿では、軍事訓練におけるウェアラブルデータからの活動の事前処理、分析、認識のためのエンドツーエンドフレームワークを提案する。
textitGarmin-55スマートウォッチを6ヶ月以上、1500万分以上使用した兵士135人のデータを使っています。
我々のフレームワークは、生理学的にインフォームドされた方法で欠落したデータに対処し、未知の睡眠状態を40.38%から3.66%に減らした。
論文 参考訳(メタデータ) (2024-10-07T19:35:15Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - MATT: Multimodal Attention Level Estimation for e-learning Platforms [16.407885871027887]
本研究は,マルチモーダル顔分析に基づくリモートアテンションレベル推定のための新しいマルチモーダルシステムを提案する。
私たちのマルチモーダルアプローチでは、認知負荷のモデル化に関連する行動や生理的プロセスから得られる様々なパラメータと信号を使用します。
mEBALデータベースは、eラーニング環境で得られたアテンションレベル推定のための公共マルチモーダルデータベースである実験フレームワークで使用される。
論文 参考訳(メタデータ) (2023-01-22T18:18:20Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Challenges and Opportunities for Machine Learning Classification of
Behavior and Mental State from Images [3.7445390865272588]
コンピュータビジョン(CV)分類器は、非言語的社会的行動と精神状態を識別し、検出する。
行動表現の過程を試みようとすると、いくつかの痛点が生じる。
データキュレーション、データ拡張、クラウドソースラベリング、アクティブラーニング、強化学習、生成モデル、表現学習、フェデレーション学習、メタラーニングなど、CVにおける最先端の研究成果について論じる。
論文 参考訳(メタデータ) (2022-01-26T21:35:17Z) - Comparison of Speaker Role Recognition and Speaker Enrollment Protocol
for conversational Clinical Interviews [9.728371067160941]
エンドツーエンドのニューラルネットワークアーキテクチャをトレーニングし、各タスクに適応し、各アプローチを同じメトリクスで評価します。
結果は面接者の人口統計にも依存せず,その臨床的意義を浮き彫りにした。
論文 参考訳(メタデータ) (2020-10-30T09:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。