論文の概要: READS-V: Real-time Automated Detection of Epileptic Seizures from
Surveillance Videos via Skeleton-based Spatiotemporal ViG
- arxiv url: http://arxiv.org/abs/2311.14775v1
- Date: Fri, 24 Nov 2023 15:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 09:40:20.386221
- Title: READS-V: Real-time Automated Detection of Epileptic Seizures from
Surveillance Videos via Skeleton-based Spatiotemporal ViG
- Title(参考訳): READS-V:Skeleton-based Spatiotemporal ViGによる監視映像からのてんかん性精液の自動検出
- Authors: Yankun Xu, Jie Yang, Wenjie Ming, Shuang Wang, Mohamad Sawan
- Abstract要約: READS-Vシステムは5.1sのオンセット検出遅延、13.1sの臨床的オンセット検出の進歩、偽検出率ゼロを達成する。
- 参考スコア(独自算出の注目度): 6.114517770735504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An accurate and efficient epileptic seizure onset detection system can
significantly benefit patients. Traditional diagnostic methods, primarily
relying on electroencephalograms (EEGs), often result in cumbersome and
non-portable solutions, making continuous patient monitoring challenging. The
video-based seizure detection system is expected to free patients from the
constraints of scalp or implanted EEG devices and enable remote monitoring in
residential settings. Previous video-based methods neither enable all-day
monitoring nor provide short detection latency due to insufficient resources
and ineffective patient action recognition techniques. Additionally,
skeleton-based action recognition approaches remain limitations in identifying
subtle seizure-related actions. To address these challenges, we propose a novel
skeleton-based spatiotemporal vision graph neural network (STViG) for
efficient, accurate, and timely REal-time Automated Detection of epileptic
Seizures from surveillance Videos (READS-V). Our experimental results indicate
STViG outperforms previous state-of-the-art action recognition models on our
collected patients' video data with higher accuracy (5.9% error) and lower
FLOPs (0.4G). Furthermore, by integrating a decision-making rule that combines
output probabilities and an accumulative function, our READS-V system achieves
a 5.1 s EEG onset detection latency, a 13.1 s advance in clinical onset
detection, and zero false detection rate.
- Abstract(参考訳): 正確で効率的なてんかん発作検出システムは、患者に有益である。
従来の診断法は、主に脳波(EEG)に依存しており、しばしば困難で移植不可能な解決策をもたらす。
ビデオベースの発作検出システムは、頭皮や移植された脳波デバイスの制約から患者を解放し、住宅環境におけるリモートモニタリングを可能にすることが期待されている。
従来のビデオベースの手法では、リソース不足や非効率な患者行動認識技術により、全日監視や検出遅延の短縮が不可能であった。
さらに、骨格に基づく行動認識アプローチは、微妙な発作に関連する行動を特定するのに限界がある。
これらの課題に対処するために,監視ビデオ(reads-v)からのてんかん発作の効率的,正確,リアルタイム自動検出のためのスケルトンベース時空間視覚グラフニューラルネットワーク(stvig)を提案する。
以上の結果から,stvigは,より高精度(5.9%誤差)かつ低フロップ(0.4g)の映像データに対して,従来の最先端動作認識モデルよりも優れていた。
さらに、出力確率と累積関数を組み合わせた意思決定ルールを統合することで、READS-Vシステムは5.1秒のEEGオンセット検出遅延、13.1秒の臨床的オンセット検出、ゼロの偽検出率を達成する。
関連論文リスト
- REST: Efficient and Accelerated EEG Seizure Analysis through Residual State Updates [54.96885726053036]
本稿では,リアルタイム脳波信号解析のための新しいグラフベース残状態更新機構(REST)を提案する。
グラフニューラルネットワークとリカレント構造の組み合わせを活用することで、RESTは、非ユークリッド幾何学とEEGデータ内の時間的依存関係の両方を効率的にキャプチャする。
本モデルは,発作検出と分類作業において高い精度を示す。
論文 参考訳(メタデータ) (2024-06-03T16:30:19Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Privacy-preserving Early Detection of Epileptic Seizures in Videos [10.180183020927872]
新たなフレームワーク(SETR-PKD)の導入によるビデオによるてんかん発作分類の開発に寄与する。
本フレームワークは, 患者のプライバシを保ちながら, 発作運動半減期をエンコードする, 発作映像から抽出した光学的フロー特徴に基づいて構築されている。
我々のフレームワークは、トニック・クロニック発作(TCS)を83.9%の精度でプライバシー保護方法で検出できる。
論文 参考訳(メタデータ) (2023-09-15T22:29:07Z) - Video object detection for privacy-preserving patient monitoring in
intensive care [0.0]
ビデオフレームの時間的継承における情報を活用する新しい手法を提案する。
我々のメソッドは標準のYOLOv5ベースラインモデルを+1.7%mAP@.5で上回り、プロプライエタリなデータセットで10倍以上高速にトレーニングします。
論文 参考訳(メタデータ) (2023-06-26T11:52:22Z) - Machine Learning Based IoT Adaptive Architecture for Epilepsy Seizure
Detection: Anatomy and Analysis [0.0]
発作追跡システムはてんかんの治療のモニタリングと評価に不可欠である。
今日ではてんかん治療にケアタカー発作日記が用いられているが、臨床的な発作モニタリングでは発作を見逃す可能性がある。
簡単なリアルタイムk-Nearest-Neighbors(kNN)機械学習に基づく汎用的で安価な非侵襲的手法を提案する。
論文 参考訳(メタデータ) (2023-05-30T18:15:05Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Real-Time Seizure Detection using EEG: A Comprehensive Comparison of
Recent Approaches under a Realistic Setting [7.545072251531297]
この研究は、実世界のアプリケーションに適したリアルタイムの発作検出フレームワークにおいて、最先端のモデルと信号特徴抽出器を広範囲に比較する。
私たちのコードはhttps://github.com/AITRICS/EEG_real_time_seizure_detectionで利用可能です。
論文 参考訳(メタデータ) (2022-01-21T16:53:32Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - An End-to-End Deep Learning Approach for Epileptic Seizure Prediction [4.094649684498489]
畳み込みニューラルネットワーク(CNN)を用いたエンドツーエンドディープラーニングソリューションを提案する。
総合感度、誤予測率、受信機動作特性曲線下の面積は、それぞれ2つのデータセットで93.5%、0.063/h、0.981、98.8%、0.074/h、0.988に達する。
論文 参考訳(メタデータ) (2021-08-17T05:49:43Z) - High Frequency EEG Artifact Detection with Uncertainty via Early Exit
Paradigm [70.50499513259322]
現在のアーティファクト検出パイプラインはリソース不足であり、手作りの機能に大きく依存している。
高周波脳波アーチファクト検出のためのディープラーニングフレームワークであるE4Gを提案する。
われわれのフレームワークは初期の出口パラダイムを利用して、不確実性を捉えることのできるモデルの暗黙のアンサンブルを構築している。
論文 参考訳(メタデータ) (2021-07-21T07:05:42Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。