論文の概要: Deep Learning for Video-Based Assessment of Endotracheal Intubation Skills
- arxiv url: http://arxiv.org/abs/2404.11727v1
- Date: Wed, 17 Apr 2024 20:28:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 13:30:32.959354
- Title: Deep Learning for Video-Based Assessment of Endotracheal Intubation Skills
- Title(参考訳): 深層学習による気管内挿管技術の評価
- Authors: Jean-Paul Ainam, Erim Yanik, Rahul Rahul, Taylor Kunkes, Lora Cavuoto, Brian Clemency, Kaori Tanaka, Matthew Hackett, Jack Norfleet, Suvranu De,
- Abstract要約: 本研究は,シングルビデオとマルチビュービデオを用いて気管内挿管(ETI)スキルを評価する枠組みを提案する。
まず、ビデオから2D畳み込みオートエンコーダ(AE)と、事前訓練されたセルフスーパービジョンネットワークの特徴を抽出する。
Experts and Novices用のヘッドマウントカメラの3番目のデータセットも分析されている。
- 参考スコア(独自算出の注目度): 0.28087862620958753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Endotracheal intubation (ETI) is an emergency procedure performed in civilian and combat casualty care settings to establish an airway. Objective and automated assessment of ETI skills is essential for the training and certification of healthcare providers. However, the current approach is based on manual feedback by an expert, which is subjective, time- and resource-intensive, and is prone to poor inter-rater reliability and halo effects. This work proposes a framework to evaluate ETI skills using single and multi-view videos. The framework consists of two stages. First, a 2D convolutional autoencoder (AE) and a pre-trained self-supervision network extract features from videos. Second, a 1D convolutional enhanced with a cross-view attention module takes the features from the AE as input and outputs predictions for skill evaluation. The ETI datasets were collected in two phases. In the first phase, ETI is performed by two subject cohorts: Experts and Novices. In the second phase, novice subjects perform ETI under time pressure, and the outcome is either Successful or Unsuccessful. A third dataset of videos from a single head-mounted camera for Experts and Novices is also analyzed. The study achieved an accuracy of 100% in identifying Expert/Novice trials in the initial phase. In the second phase, the model showed 85% accuracy in classifying Successful/Unsuccessful procedures. Using head-mounted cameras alone, the model showed a 96% accuracy on Expert and Novice classification while maintaining an accuracy of 85% on classifying successful and unsuccessful. In addition, GradCAMs are presented to explain the differences between Expert and Novice behavior and Successful and Unsuccessful trials. The approach offers a reliable and objective method for automated assessment of ETI skills.
- Abstract(参考訳): 気管内挿管(英:endotracheal intubation,ETI)は、民間人や戦闘者による気道整備のための緊急処置である。
ETIスキルの客観的かつ自動評価は、医療提供者のトレーニングと認定に不可欠である。
しかし、現在のアプローチは、主観的、時間的、リソース集約的な専門家による手動フィードバックに基づいており、信頼性やハロ効果が低い傾向にある。
本研究は,シングルビューおよびマルチビュービデオを用いたETIスキル評価フレームワークを提案する。
フレームワークは2つのステージで構成されます。
まず、2D畳み込みオートエンコーダ(AE)と事前訓練されたセルフスーパービジョンネットワークがビデオから特徴を抽出する。
第2に、クロスビューアテンションモジュールで強化された1D畳み込みは、入力としてAEの特徴を取り、スキル評価のための予測を出力する。
ETIデータセットは2つのフェーズで収集された。
第1フェーズでは、ETIはエキスパートと初心者という2つの主題のコホートによって実行される。
第2段階では、初級者は時間圧下でERIを行い、結果は成功か不成功かのいずれかとなる。
Experts and Novices用のヘッドマウントカメラの3番目のデータセットも分析されている。
この研究は、初期段階におけるエキスパート/ノヴィエティの同定において100%の精度を達成した。
第2段階では,有効/不必要手順の分類において85%の精度を示した。
ヘッドマウントカメラだけで、このモデルはエキスパートと初心者の分類では96%の精度を示し、成功と失敗の分類では85%の精度を維持した。
さらに、GradCAMはエキスパートと初心者の振る舞いと成功と不成功のトライアルの違いを説明するために提示される。
このアプローチは、ERIスキルの自動評価のための信頼性と客観的な方法を提供する。
関連論文リスト
- BERT-Based Approach for Automating Course Articulation Matrix Construction with Explainable AI [1.4214002697449326]
コースアウトカム(CO)とプログラムアウトカム(PO)/プログラムアウトカム(PSO)アライメントは,カリキュラムの一貫性を確保し,教育効果を評価する上で重要な課題である。
本研究は,CAM(Course Articulation Matrix)の自動生成のためのBERTモデルを用いた伝達学習の可能性を示す。
精度,精度,リコール,F1スコアはそれぞれ98.66%,98.67%,98.66%,98.66%である。
論文 参考訳(メタデータ) (2024-11-21T16:02:39Z) - ILAEDA: An Imitation Learning Based Approach for Automatic Exploratory Data Analysis [5.012314384895538]
我々は、操作を重要なものにする重要な特徴のすべてが、報酬を使って数学的に正確にキャプチャできるわけではないと論じる。
本稿では,専門家EDAセッションの模倣学習を通じて訓練されたAutoEDAモデルを提案する。
提案手法は,既存のエンドツーエンドEDA手法を最大3倍のベンチマークで上回り,高い性能と一般化を示す。
論文 参考訳(メタデータ) (2024-10-15T04:56:13Z) - Distilling Aggregated Knowledge for Weakly-Supervised Video Anomaly Detection [11.250490586786878]
ビデオ異常検出は、監視ビデオにおける異常事象を識別できる自動モデルを開発することを目的としている。
複数のバックボーンの集約表現から1つのバックボーンモデルへの知識の蒸留が,最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2024-06-05T00:44:42Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - U-PASS: an Uncertainty-guided deep learning Pipeline for Automated Sleep
Staging [61.6346401960268]
プロセスの各段階で不確実性推定を組み込んだ臨床応用に適した,U-PASSと呼ばれる機械学習パイプラインを提案する。
不確実性誘導型ディープラーニングパイプラインを睡眠ステージングの困難な問題に適用し、各ステージにおけるパフォーマンスを体系的に改善することを示す。
論文 参考訳(メタデータ) (2023-06-07T08:27:36Z) - SS-VAERR: Self-Supervised Apparent Emotional Reaction Recognition from
Video [61.21388780334379]
この研究は、自己監督的な方法で行われるビデオのみの入力からの明らかな感情的反応の認識に焦点を当てる。
ネットワークは、まず異なる自己教師付きプレテキストタスクで事前訓練され、その後、下流のターゲットタスクで微調整される。
論文 参考訳(メタデータ) (2022-10-20T15:21:51Z) - Fully Automated Binary Pattern Extraction For Finger Vein Identification
using Double Optimization Stages-Based Unsupervised Learning Approach [0.0]
機械学習に基づく教師なし、教師なし、ディープラーニングのアルゴリズムは、指静脈の検出と認識に大きな影響を与えている。
ディープラーニングは、手作業による生成とラベル付けが必要な、多数のトレーニングデータセットを必要とする。
本研究では,データセット作成をトレーニングするための完全に自動化された教師なし学習戦略を提案する。
論文 参考訳(メタデータ) (2022-05-08T11:01:25Z) - An Empirical Study of End-to-End Temporal Action Detection [82.64373812690127]
時間的行動検出(TAD)はビデオ理解において重要な課題である。
エンド・ツー・エンドの学習よりも、既存のほとんどの手法では、ヘッドオンリーの学習パラダイムを採用しています。
頭のみの学習よりもエンド・ツー・エンドの学習の利点を検証し、最大11%のパフォーマンス向上を観察する。
論文 参考訳(メタデータ) (2022-04-06T16:46:30Z) - ACE: Ally Complementary Experts for Solving Long-Tailed Recognition in
One-Shot [35.309006275276374]
一段長尾認識法は、全体的な性能を「シーソー」方式で改善する。
既存のアルゴリズムは、そのようなトレードオフを多段階のトレーニングプロセスによって回避する。
我々は,一段階の長尾認識手法,アリー補完専門家(ACE)を提案する。
論文 参考訳(メタデータ) (2021-08-05T05:31:57Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。