論文の概要: Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures
- arxiv url: http://arxiv.org/abs/2106.12014v1
- Date: Tue, 22 Jun 2021 18:40:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:24:19.969653
- Title: Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures
- Title(参考訳): 発作の任意長映像のモデル化のための深部時空間ネットワークの伝達学習
- Authors: Fernando P\'erez-Garc\'ia, Catherine Scott, Rachel Sparks, Beate Diehl
and S\'ebastien Ourselin
- Abstract要約: てんかん患者の治療には, てんかんセミノロジーの詳細な分析が重要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESを紹介する。
本稿では,HARデータセットでトレーニングしたSTCNNとRNNを組み合わせて,任意の長さの発作映像を正確に表現できることを示す。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Detailed analysis of seizure semiology, the symptoms and signs which occur
during a seizure, is critical for management of epilepsy patients. Inter-rater
reliability using qualitative visual analysis is often poor for semiological
features. Therefore, automatic and quantitative analysis of video-recorded
seizures is needed for objective assessment.
We present GESTURES, a novel architecture combining convolutional neural
networks (CNNs) and recurrent neural networks (RNNs) to learn deep
representations of arbitrarily long videos of epileptic seizures.
We use a spatiotemporal CNN (STCNN) pre-trained on large human action
recognition (HAR) datasets to extract features from short snippets (approx. 0.5
s) sampled from seizure videos. We then train an RNN to learn seizure-level
representations from the sequence of features.
We curated a dataset of seizure videos from 68 patients and evaluated
GESTURES on its ability to classify seizures into focal onset seizures (FOSs)
(N = 106) vs. focal to bilateral tonic-clonic seizures (TCSs) (N = 77),
obtaining an accuracy of 98.9% using bidirectional long short-term memory
(BLSTM) units.
We demonstrate that an STCNN trained on a HAR dataset can be used in
combination with an RNN to accurately represent arbitrarily long videos of
seizures. GESTURES can provide accurate seizure classification by modeling
sequences of semiologies.
- Abstract(参考訳): 発作時に起こる症状と徴候である発作性セミロジクスの詳細な分析は、てんかん患者の管理に重要である。
質的視覚分析を用いた層間信頼性は, しばしば, セミロジカルな特徴に乏しい。
そのため、客観的な評価にはビデオ記録された発作の自動的・定量的解析が必要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESについて述べる。
大規模ヒューマンアクション認識(har)データセットに事前トレーニングされた時空間cnn(stcnn)を使用して,短いスニペットから特徴を抽出する。
0.5 s) であった。
次に、RNNをトレーニングして、特徴のシーケンスから発作レベルの表現を学習します。
68例の発作ビデオのデータセットをキュレートし,両耳間発作 (tcss) (n = 77) に対して発作をfoss (focal onset seizures) (n = 106) とfocal (focal) に分類し,双方向のlong short-term memory (blstm) ユニットを用いて98.9%の精度を得た。
我々は、HARデータセットでトレーニングされたSTCNNとRNNを組み合わせて、任意の長さの発作映像を正確に表現できることを実証した。
GESTURESは、セミオロジのシーケンスをモデル化することで正確な発作分類を提供することができる。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - A Meta-GNN approach to personalized seizure detection and classification [53.906130332172324]
本稿では,特定の患者に限られた発作サンプルから迅速に適応できるパーソナライズされた発作検出・分類フレームワークを提案する。
トレーニング患者の集合からグローバルモデルを学ぶメタGNNベースの分類器を訓練する。
本手法は, 未確認患者20回に限って, 精度82.7%, F1スコア82.08%を達成し, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-11-01T14:12:58Z) - N-Omniglot: a Large-scale Neuromorphic Dataset for Spatio-Temporal
Sparse Few-shot Learning [10.812738608234321]
我々は、Dynamic Vision Sensor (DVS)を用いて、最初のニューロモルフィックデータセット、N-Omniglotを提供する。
1623種類の手書き文字が含まれており、クラスごとに20のサンプルしか持たない。
このデータセットは、数ショットの学習領域でSNNアルゴリズムを開発するための強力なチャレンジと適切なベンチマークを提供する。
論文 参考訳(メタデータ) (2021-12-25T12:41:34Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - An End-to-End Deep Learning Approach for Epileptic Seizure Prediction [4.094649684498489]
畳み込みニューラルネットワーク(CNN)を用いたエンドツーエンドディープラーニングソリューションを提案する。
総合感度、誤予測率、受信機動作特性曲線下の面積は、それぞれ2つのデータセットで93.5%、0.063/h、0.981、98.8%、0.074/h、0.988に達する。
論文 参考訳(メタデータ) (2021-08-17T05:49:43Z) - MARL: Multimodal Attentional Representation Learning for Disease
Prediction [0.0]
既存の学習モデルは、しばしばCTスキャン画像を利用して肺疾患を予測する。
これらのモデルは、肺のセグメンテーションと視覚特徴学習に影響を与える高い不確実性によって構成される。
MARL(Multimodal Attentional Representation Learning Model Architecture)を紹介する。
論文 参考訳(メタデータ) (2021-05-01T17:47:40Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Spiking Neural Networks -- Part II: Detecting Spatio-Temporal Patterns [38.518936229794214]
スパイキングニューラルネットワーク(SNN)は、符号化された時間信号で情報を検出するユニークな能力を持つ。
SNNをリカレントニューラルネットワーク(RNN)とみなす支配的アプローチのためのモデルとトレーニングアルゴリズムについてレビューする。
スパイキングニューロンの確率モデルに頼り、勾配推定による局所学習規則の導出を可能にする別のアプローチについて述べる。
論文 参考訳(メタデータ) (2020-10-27T11:47:42Z) - Incorporating Learnable Membrane Time Constant to Enhance Learning of
Spiking Neural Networks [36.16846259899793]
スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力、消費電力の低さ、高い生物学的信頼性により、膨大な研究関心を集めている。
既存の学習方法はウェイトのみを学習し、単一のスパイキングニューロンのダイナミクスを決定する膜関連パラメータを手動でチューニングする必要がある。
本稿では,脳の領域で膜関連パラメータが異なることの観察から着想を得て,シナプス重みだけでなく,SNNの膜時間定数も学習可能なトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-11T14:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。