論文の概要: Automated Detection of Patients in Hospital Video Recordings
- arxiv url: http://arxiv.org/abs/2111.14270v1
- Date: Sun, 28 Nov 2021 23:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:06:54.517659
- Title: Automated Detection of Patients in Hospital Video Recordings
- Title(参考訳): 病院ビデオ録画における患者の自動検出
- Authors: Siddharth Sharma, Florian Dubost, Christopher Lee-Messer, Daniel Rubin
- Abstract要約: 臨床環境では、てんかん患者は、ビデオ脳波検査(EEG)によって監視される。
現在、発作時に患者の位置を追跡するための自動的な方法が存在しない。
我々は,イメージネットで事前学習したMask R-CNN(オブジェクト検出のための標準ディープラーニングモデル)を,患者検出のタスクに基づいて評価した。
- 参考スコア(独自算出の注目度): 1.759613153663764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a clinical setting, epilepsy patients are monitored via video
electroencephalogram (EEG) tests. A video EEG records what the patient
experiences on videotape while an EEG device records their brainwaves.
Currently, there are no existing automated methods for tracking the patient's
location during a seizure, and video recordings of hospital patients are
substantially different from publicly available video benchmark datasets. For
example, the camera angle can be unusual, and patients can be partially covered
with bedding sheets and electrode sets. Being able to track a patient in
real-time with video EEG would be a promising innovation towards improving the
quality of healthcare. Specifically, an automated patient detection system
could supplement clinical oversight and reduce the resource-intensive efforts
of nurses and doctors who need to continuously monitor patients. We evaluate an
ImageNet pre-trained Mask R-CNN, a standard deep learning model for object
detection, on the task of patient detection using our own curated dataset of 45
videos of hospital patients. The dataset was aggregated and curated for this
work. We show that without fine-tuning, ImageNet pre-trained Mask R-CNN models
perform poorly on such data. By fine-tuning the models with a subset of our
dataset, we observe a substantial improvement in patient detection performance,
with a mean average precision of 0.64. We show that the results vary
substantially depending on the video clip.
- Abstract(参考訳): 臨床環境では、てんかん患者はビデオ脳波検査(EEG)によって監視される。
ビデオ脳波は、患者がビデオテープで経験したことを記録し、脳波デバイスは脳波を記録する。
現在、発作時の患者の位置を追跡するための既存の自動的手法は存在せず、病院の患者のビデオ記録は一般に入手可能なビデオベンチマークデータセットとは大きく異なる。
例えば、カメラアングルは異常であり、患者は部分的に寝具シートや電極で覆うことができる。
患者をビデオ脳波でリアルタイムで追跡できることは、医療の質を向上させるための有望なイノベーションだ。
特に、患者の自動検出システムは、臨床検査を補完し、患者を継続的に監視する必要がある看護師や医師のリソース集約的な努力を減らすことができる。
対象物検出のための標準深層学習モデルであるimagenet pre-trained mask r-cnn を,患者45本のビデオの蓄積データセットを用いて患者検出の課題として評価した。
データセットは収集され、この作業のためにキュレーションされた。
微調整なしでは、ImageNetで事前訓練したMask R-CNNモデルでは、そのようなデータに対して性能が良くないことを示す。
データセットのサブセットでモデルを微調整することにより、患者検出性能が大幅に向上し、平均精度は0.64である。
結果がビデオクリップによって大きく異なることを示す。
関連論文リスト
- VSViG: Real-time Video-based Seizure Detection via Skeleton-based Spatiotemporal ViG [8.100646331930953]
正確なて効率的なてんかん発作検出は、患者に有益である。
従来の診断法は、主に脳波(EEG)に依存しており、しばしば困難で移植不可能な解決策をもたらす。
骨格型時間的視覚グラフニューラルネットワークを用いて,ビデオに基づく新しいシーズーア検出モデルを提案する。
論文 参考訳(メタデータ) (2023-11-24T15:07:29Z) - Detecting Visual Cues in the Intensive Care Unit and Association with Patient Clinical Status [0.9867627975175174]
ICUの既存の患者評価は散発的であり、手動で管理されている。
我々はデータ不均衡問題に対処する新しい「マスケッド損失計算」手法を開発した。
634,054フレームのAU推論を行い,顔面AUと臨床的に重要な患者状況との関連性について検討した。
論文 参考訳(メタデータ) (2023-11-01T15:07:03Z) - An Interpretable Deep-Learning Framework for Predicting Hospital
Readmissions From Electronic Health Records [2.156208381257605]
そこで我々は,未計画の病院入退院を予測するための,新しい,解釈可能な深層学習フレームワークを提案する。
実際のデータを用いて,30日と180日以内に病院入退院の2つの予測課題について,本システムの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-16T08:48:52Z) - Video object detection for privacy-preserving patient monitoring in
intensive care [0.0]
ビデオフレームの時間的継承における情報を活用する新しい手法を提案する。
我々のメソッドは標準のYOLOv5ベースラインモデルを+1.7%mAP@.5で上回り、プロプライエタリなデータセットで10倍以上高速にトレーニングします。
論文 参考訳(メタデータ) (2023-06-26T11:52:22Z) - Knowledge-Distilled Graph Neural Networks for Personalized Epileptic
Seizure Detection [43.905374104261014]
そこで,本研究では,全電極から得られたデータに基づいて訓練された高度感応検知器(教師と呼ぶ)から知識を伝達し,新しい検出器(学生と呼ぶ)を学習するための新しい知識蒸留手法を提案する。
どちらも軽量な実装を提供しており、脳波を記録するのに必要な電極の数を大幅に削減している。
以上の結果から,脳波の少ない症例では,知識蒸留とパーソナライゼーションの両方が,発作検出の性能向上に重要な役割を担っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-04-03T15:37:40Z) - Unsupervised pre-training of graph transformers on patient population
graphs [48.02011627390706]
異種臨床データを扱うグラフ変換器を用いたネットワークを提案する。
自己教師型, 移動学習環境において, 事前学習方式の利点を示す。
論文 参考訳(メタデータ) (2022-07-21T16:59:09Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Predicting Patient Readmission Risk from Medical Text via Knowledge
Graph Enhanced Multiview Graph Convolution [67.72545656557858]
本稿では,電子健康記録の医用テキストを予測に用いる新しい手法を提案する。
外部知識グラフによって強化された多視点グラフを有する患者の退院サマリーを表現している。
実験により,本手法の有効性が証明され,最先端の性能が得られた。
論文 参考訳(メタデータ) (2021-12-19T01:45:57Z) - Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures [58.720142291102135]
てんかん患者の治療には, てんかんセミノロジーの詳細な分析が重要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESを紹介する。
本稿では,HARデータセットでトレーニングしたSTCNNとRNNを組み合わせて,任意の長さの発作映像を正確に表現できることを示す。
論文 参考訳(メタデータ) (2021-06-22T18:40:31Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。