論文の概要: End-to-End Machine Learning Framework for Facial AU Detection in
Intensive Care Units
- arxiv url: http://arxiv.org/abs/2211.06570v1
- Date: Sat, 12 Nov 2022 04:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:00:44.910660
- Title: End-to-End Machine Learning Framework for Facial AU Detection in
Intensive Care Units
- Title(参考訳): 集中治療室における顔AU検出のためのエンドツーエンド機械学習フレームワーク
- Authors: Subhash Nerella, Kia Khezeli, Andrea Davidson, Patrick Tighe, Azra
Bihorac, Parisa Rashidi
- Abstract要約: 集中治療室に入院した患者には痛みがよく起こる。
現在の手動の観察に基づく痛み評価ツールは、投与される痛みの頻度によって制限され、観察者に主観的である。
我々は,動的ICU環境における顔行動分析を対象とする最大のデータセットであるPain-ICUデータセットを提案する。
- 参考スコア(独自算出の注目度): 3.8168092489216385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pain is a common occurrence among patients admitted to Intensive Care Units.
Pain assessment in ICU patients still remains a challenge for clinicians and
ICU staff, specifically in cases of non-verbal sedated, mechanically
ventilated, and intubated patients. Current manual observation-based pain
assessment tools are limited by the frequency of pain observations administered
and are subjective to the observer. Facial behavior is a major component in
observation-based tools. Furthermore, previous literature shows the feasibility
of painful facial expression detection using facial action units (AUs).
However, these approaches are limited to controlled or semi-controlled
environments and have never been validated in clinical settings. In this study,
we present our Pain-ICU dataset, the largest dataset available targeting facial
behavior analysis in the dynamic ICU environment. Our dataset comprises 76,388
patient facial image frames annotated with AUs obtained from 49 adult patients
admitted to ICUs at the University of Florida Health Shands hospital. In this
work, we evaluated two vision transformer models, namely ViT and SWIN, for AU
detection on our Pain-ICU dataset and also external datasets. We developed a
completely end-to-end AU detection pipeline with the objective of performing
real-time AU detection in the ICU. The SWIN transformer Base variant achieved
0.88 F1-score and 0.85 accuracy on the held-out test partition of the Pain-ICU
dataset.
- Abstract(参考訳): 集中治療室に入院した患者には痛みがよく起こる。
ICU患者の痛み評価は、特に非バーバル鎮静、機械的換気、挿管患者の臨床医やICUスタッフにとって依然として課題である。
現在の手動の観察に基づく痛み評価ツールは、投与される痛みの頻度によって制限され、観察者に主観的である。
顔の行動は観察に基づくツールの主要な構成要素である。
さらに, 顔動作単位(aus)を用いた痛みを伴う表情検出の可能性についても検討した。
しかし、これらのアプローチは制御された環境や半制御された環境に限られており、臨床環境では検証されていない。
本研究では,動的ICU環境における顔行動分析を対象とする最大のデータセットであるPain-ICUデータセットを提案する。
対象はフロリダ大学ヘルス・ハンドス病院でICUを受診した成人49例のAUを付加した76,388例の顔画像フレームである。
本研究では、Pain-ICUデータセットと外部データセットのAU検出のための2つの視覚トランスフォーマーモデル、すなわちViTとSWINを評価した。
ICUでリアルタイムAU検出を行う目的で,完全エンドツーエンドのAU検出パイプラインを開発した。
SWINトランスフォーマーベースは、Pain-ICUデータセットのホールドアウトテストパーティションで0.88F1スコアと0.85精度を達成した。
関連論文リスト
- Leveraging Computer Vision in the Intensive Care Unit (ICU) for Examining Visitation and Mobility [12.347067736902094]
我々は、奥行き画像に基づく最先端の非侵襲型コンピュータビジョンシステムを活用し、ICU訪問と患者の移動性を特徴付ける。
患者視力低下と訪問の増加に伴うデリリウムの出現との関連を見いだした。
ICU患者に対する非侵襲的自律システムの有用性と可能性について検討した。
論文 参考訳(メタデータ) (2024-03-10T21:43:47Z) - Detecting Visual Cues in the Intensive Care Unit and Association with Patient Clinical Status [0.9867627975175174]
ICUの既存の患者評価は散発的であり、手動で管理されている。
我々はデータ不均衡問題に対処する新しい「マスケッド損失計算」手法を開発した。
634,054フレームのAU推論を行い,顔面AUと臨床的に重要な患者状況との関連性について検討した。
論文 参考訳(メタデータ) (2023-11-01T15:07:03Z) - AI-Enhanced Intensive Care Unit: Revolutionizing Patient Care with Pervasive Sensing [2.8688584757794064]
集中治療室 (ICU) は、重篤な患者が集中治療や監視を受ける特別な病院空間である。
包括的モニタリングは、患者の状態、特に明度、究極的にはケアの質を評価する上で必須である。
現在、表情、姿勢、移動といった細部を含む視力評価は散発的に捉えられるか、全く捉えられていない。
論文 参考訳(メタデータ) (2023-03-11T00:25:55Z) - Pain level and pain-related behaviour classification using GRU-based
sparsely-connected RNNs [61.080598804629375]
慢性的な痛みを持つ人は、特定の身体の動きを無意識に適応させ、怪我や追加の痛みから身を守る。
この相関関係を分析するための専用のベンチマークデータベースが存在しないため、日々の行動に影響を及ぼす可能性のある特定の状況の1つを検討した。
我々は、複数のオートエンコーダを組み込んだゲートリカレントユニット(GRU)と疎結合なリカレントニューラルネットワーク(s-RNN)のアンサンブルを提案した。
本手法は,痛みレベルと痛み関連行動の両方の分類において,最先端のアプローチよりも優れていることを示すいくつかの実験を行った。
論文 参考訳(メタデータ) (2022-12-20T12:56:28Z) - Pain Detection in Masked Faces during Procedural Sedation [0.0]
鎮静術を施行した患者のケアの質には痛みのモニタリングが不可欠である。
これまでの研究では、隠蔽された顔の痛みを検知するコンピュータビジョン法が実現可能であることが示されている。
本研究は, 介入放射線学部門において, 手術中の14例の顔から映像データを収集した。
論文 参考訳(メタデータ) (2022-11-12T15:55:33Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Intelligent Sight and Sound: A Chronic Cancer Pain Dataset [74.77784420691937]
本稿では,Intelligent Sight and Sound (ISS) 臨床試験の一環として収集された,最初の慢性ガン痛データセットを紹介する。
これまで収集されたデータは29の患者、509のスマートフォンビデオ、189,999のフレーム、そして自己報告された感情と活動の痛みのスコアから成っている。
静的画像とマルチモーダルデータを用いて、自己報告された痛みレベルを予測する。
論文 参考訳(メタデータ) (2022-04-07T22:14:37Z) - Predicting Patient Readmission Risk from Medical Text via Knowledge
Graph Enhanced Multiview Graph Convolution [67.72545656557858]
本稿では,電子健康記録の医用テキストを予測に用いる新しい手法を提案する。
外部知識グラフによって強化された多視点グラフを有する患者の退院サマリーを表現している。
実験により,本手法の有効性が証明され,最先端の性能が得られた。
論文 参考訳(メタデータ) (2021-12-19T01:45:57Z) - COVIDNet-CT: A Tailored Deep Convolutional Neural Network Design for
Detection of COVID-19 Cases from Chest CT Images [75.74756992992147]
我々は、胸部CT画像からCOVID-19の症例を検出するのに適した、深層畳み込みニューラルネットワークアーキテクチャであるCOVIDNet-CTを紹介した。
また,中国生体情報センターが収集したCT画像データから得られたベンチマークCT画像データセットであるCOVIDx-CTも紹介した。
論文 参考訳(メタデータ) (2020-09-08T15:49:55Z) - Integrative Analysis for COVID-19 Patient Outcome Prediction [53.11258640541513]
我々は、集中治療室入院の必要性を予測するために、人口統計、バイタルサイン、実験室の所見から、肺不透明度の放射能と非画像の特徴を組み合わせる。
また, 地域性肺炎を含む他の肺疾患にも適用できるが, 地域性肺炎に限らない。
論文 参考訳(メタデータ) (2020-07-20T19:08:50Z) - Facial Action Unit Detection on ICU Data for Pain Assessment [1.8352113484137622]
現在の痛み評価方法は、患者の自己申告やICU看護師のような観察者に依存している。
そこで本研究では,実際のICUデータに基づく自動鎮痛評価システムの必要性について述べる。
論文 参考訳(メタデータ) (2020-04-24T17:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。