論文の概要: Privacy-preserving Early Detection of Epileptic Seizures in Videos
- arxiv url: http://arxiv.org/abs/2309.08794v1
- Date: Fri, 15 Sep 2023 22:29:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 19:25:32.268881
- Title: Privacy-preserving Early Detection of Epileptic Seizures in Videos
- Title(参考訳): ビデオにおけるてんかん発作の早期検出
- Authors: Deval Mehta, Shobi Sivathamboo, Hugh Simpson, Patrick Kwan, Terence
O`Brien, Zongyuan Ge
- Abstract要約: 新たなフレームワーク(SETR-PKD)の導入によるビデオによるてんかん発作分類の開発に寄与する。
本フレームワークは, 患者のプライバシを保ちながら, 発作運動半減期をエンコードする, 発作映像から抽出した光学的フロー特徴に基づいて構築されている。
我々のフレームワークは、トニック・クロニック発作(TCS)を83.9%の精度でプライバシー保護方法で検出できる。
- 参考スコア(独自算出の注目度): 10.180183020927872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we contribute towards the development of video-based epileptic
seizure classification by introducing a novel framework (SETR-PKD), which could
achieve privacy-preserved early detection of seizures in videos. Specifically,
our framework has two significant components - (1) It is built upon optical
flow features extracted from the video of a seizure, which encodes the seizure
motion semiotics while preserving the privacy of the patient; (2) It utilizes a
transformer based progressive knowledge distillation, where the knowledge is
gradually distilled from networks trained on a longer portion of video samples
to the ones which will operate on shorter portions. Thus, our proposed
framework addresses the limitations of the current approaches which compromise
the privacy of the patients by directly operating on the RGB video of a seizure
as well as impede real-time detection of a seizure by utilizing the full video
sample to make a prediction. Our SETR-PKD framework could detect tonic-clonic
seizures (TCSs) in a privacy-preserving manner with an accuracy of 83.9% while
they are only half-way into their progression. Our data and code is available
at https://github.com/DevD1092/seizure-detection
- Abstract(参考訳): 本研究では,ビデオ中の発作を早期に検出できる新しいフレームワーク(SETR-PKD)を導入することで,ビデオベースのてんかん発作分類の開発に寄与する。
具体的には,(1)患者のプライバシを保ちながら発作運動を符号化した発作ビデオから抽出した光学的流れの特徴を基盤として,(2)ビデオサンプルのより長い部分で訓練されたネットワークから,より短い部分で操作するネットワークまで,トランスフォーマーに基づく漸進的知識蒸留を利用する。
そこで,本提案フレームワークでは,発作のRGBビデオを直接操作することで患者のプライバシーを侵害する現在のアプローチの限界に対処するとともに,全ビデオサンプルを用いて発作のリアルタイム検出を阻害し,予測を行う。
われわれのSETR-PKDフレームワークは、トニック・クロニック発作(TCS)を83.9%の精度で検出できる。
私たちのデータとコードはhttps://github.com/DevD1092/seizure-detectionで利用可能です。
関連論文リスト
- Learning Temporally Consistent Video Depth from Video Diffusion Priors [57.929828486615605]
本研究は,映像深度推定の課題に対処する。
我々は予測タスクを条件付き生成問題に再構成する。
これにより、既存のビデオ生成モデルに埋め込まれた事前の知識を活用することができる。
論文 参考訳(メタデータ) (2024-06-03T16:20:24Z) - VSViG: Real-time Video-based Seizure Detection via Skeleton-based Spatiotemporal ViG [8.100646331930953]
正確なて効率的なてんかん発作検出は、患者に有益である。
従来の診断法は、主に脳波(EEG)に依存しており、しばしば困難で移植不可能な解決策をもたらす。
骨格型時間的視覚グラフニューラルネットワークを用いて,ビデオに基づく新しいシーズーア検出モデルを提案する。
論文 参考訳(メタデータ) (2023-11-24T15:07:29Z) - A Spatial-Temporal Deformable Attention based Framework for Breast
Lesion Detection in Videos [107.96514633713034]
本稿では,STNet という空間的・時間的変形可能なアテンションベースのフレームワークを提案する。
我々のSTNetは、局所的な空間的時間的特徴融合を行うために、空間的時間的変形可能なアテンションモジュールを導入している。
乳腺病変の超音波画像データセットを用いた実験により,STNetは最先端の検出性能を得ることができた。
論文 参考訳(メタデータ) (2023-09-09T07:00:10Z) - Video object detection for privacy-preserving patient monitoring in
intensive care [0.0]
ビデオフレームの時間的継承における情報を活用する新しい手法を提案する。
我々のメソッドは標準のYOLOv5ベースラインモデルを+1.7%mAP@.5で上回り、プロプライエタリなデータセットで10倍以上高速にトレーニングします。
論文 参考訳(メタデータ) (2023-06-26T11:52:22Z) - Point Cloud Video Anomaly Detection Based on Point Spatio-Temporal
Auto-Encoder [1.4340883856076097]
我々は、ポイントクラウドビデオの異常を検出するためにポイントクラウドビデオを入力として使用する自動エンコーダフレームワークであるポイント時自動エンコーダ(PSTAE)を提案する。
本手法はTIMoデータセット上に新しい最先端(SOTA)を設定する。
論文 参考訳(メタデータ) (2023-06-04T10:30:28Z) - Transform-Equivariant Consistency Learning for Temporal Sentence
Grounding [66.10949751429781]
ビデオ毎により差別的な表現を学習するために,新しい同変一貫性規則学習フレームワークを導入する。
私たちのモチベーションは、クエリ誘導アクティビティの時間的境界を一貫して予測することにある。
特に,ビデオの完全性と滑らか性を高めるために,自己教師付き一貫性損失モジュールを考案した。
論文 参考訳(メタデータ) (2023-05-06T19:29:28Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures [58.720142291102135]
てんかん患者の治療には, てんかんセミノロジーの詳細な分析が重要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESを紹介する。
本稿では,HARデータセットでトレーニングしたSTCNNとRNNを組み合わせて,任意の長さの発作映像を正確に表現できることを示す。
論文 参考訳(メタデータ) (2021-06-22T18:40:31Z) - Privacy-sensitive Objects Pixelation for Live Video Streaming [52.83247667841588]
ライブビデオストリーミング中に自動的にパーソナルプライバシフィルタリングを行うための新しいPrivacy-sensitive Objects Pixelation(PsOP)フレームワークを提案する。
psopは、あらゆるプライバシーに敏感なオブジェクトのピクセル化に拡張可能です。
ストリーミング映像データを用いた実験では, ピクセル化精度の向上に加えて, プライバシーに敏感な物体のピクセル化において, PsOP が過剰なピクセル化比を大幅に削減できることが示された。
論文 参考訳(メタデータ) (2021-01-03T11:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。