論文の概要: Data-Efficient Sleep Staging with Synthetic Time Series Pretraining
- arxiv url: http://arxiv.org/abs/2403.08592v1
- Date: Wed, 13 Mar 2024 14:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 13:38:13.245898
- Title: Data-Efficient Sleep Staging with Synthetic Time Series Pretraining
- Title(参考訳): 合成時系列事前学習によるデータ効率のよい睡眠安定
- Authors: Niklas Grieger, Siamak Mehrkanoon, Stephan Bialonski
- Abstract要約: 本稿では,睡眠段階のためのニューラルネットワークを事前訓練する「周波数事前学習」という事前訓練タスクを提案する。
実験の結果,本手法は限られたデータと少ない主題のシナリオにおいて,完全に教師付き学習を超越していることがわかった。
- 参考スコア(独自算出の注目度): 1.642094639107215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing electroencephalographic (EEG) time series can be challenging,
especially with deep neural networks, due to the large variability among human
subjects and often small datasets. To address these challenges, various
strategies, such as self-supervised learning, have been suggested, but they
typically rely on extensive empirical datasets. Inspired by recent advances in
computer vision, we propose a pretraining task termed "frequency pretraining"
to pretrain a neural network for sleep staging by predicting the frequency
content of randomly generated synthetic time series. Our experiments
demonstrate that our method surpasses fully supervised learning in scenarios
with limited data and few subjects, and matches its performance in regimes with
many subjects. Furthermore, our results underline the relevance of frequency
information for sleep stage scoring, while also demonstrating that deep neural
networks utilize information beyond frequencies to enhance sleep staging
performance, which is consistent with previous research. We anticipate that our
approach will be advantageous across a broad spectrum of applications where EEG
data is limited or derived from a small number of subjects, including the
domain of brain-computer interfaces.
- Abstract(参考訳): 脳波(EEG)時系列を解析することは、特にディープニューラルネットワークでは、人体としばしば小さなデータセットに大きなばらつきがあるため困難である。
これらの課題に対処するためには、自己教師付き学習のような様々な戦略が提案されているが、通常は広範な経験的データセットに依存している。
コンピュータビジョンの最近の進歩に触発されて、ランダムに生成された合成時系列の周波数量を予測して、睡眠ステージングのためのニューラルネットワークを事前訓練する「周波数事前学習」という事前訓練タスクを提案する。
実験の結果,本手法は,限られたデータと少ない主題のシナリオで完全に教師付き学習を超越し,多くの課題に適合することがわかった。
さらに,本研究の結果は,睡眠段階スコアリングにおける周波数情報の関連性を示すとともに,深層ニューラルネットワークが周波数を超える情報を活用して睡眠ステージング性能を向上させることを実証した。
我々は、脳波データに制限がある、あるいは脳-コンピュータインタフェースの領域を含む少数の主題から派生した幅広い分野のアプリケーションに対して、我々のアプローチが有利になることを期待している。
関連論文リスト
- A frugal Spiking Neural Network for unsupervised classification of continuous multivariate temporal data [0.0]
スパイキングニューラルネットワーク(SNN)は神経型であり、進化する膜電位を持つより生物学的に可塑性なニューロンを使用する。
本稿では,連続データにおける多変量時間パターンの完全教師なし識別と分類のために設計されたFragal Single-layer SNNを紹介する。
論文 参考訳(メタデータ) (2024-08-08T08:15:51Z) - NeuroNet: A Novel Hybrid Self-Supervised Learning Framework for Sleep Stage Classification Using Single-Channel EEG [2.3310092106321365]
睡眠ステージ分類は、睡眠障害を診断し、睡眠の質を評価する重要な側面である。
近年の深層学習の進歩は、睡眠段階分類の自動化を著しく促進している。
本稿では,未ラベルの単一チャンネル睡眠脳波(EEG)信号を利用する自己教師型学習フレームワークであるNeuroNetを紹介する。
論文 参考訳(メタデータ) (2024-04-10T18:32:22Z) - Efficient and Effective Time-Series Forecasting with Spiking Neural Networks [47.371024581669516]
スパイキングニューラルネットワーク(SNN)は、時間データの複雑さを捉えるためのユニークな経路を提供する。
SNNを時系列予測に適用することは、効果的な時間的アライメントの難しさ、符号化プロセスの複雑さ、およびモデル選択のための標準化されたガイドラインの欠如により困難である。
本稿では,時間情報処理におけるスパイクニューロンの効率を活かした時系列予測タスクにおけるSNNのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:23:50Z) - Time Scale Network: A Shallow Neural Network For Time Series Data [18.46091267922322]
時系列データは、しばしば複数の時間スケールで情報で構成されている。
この情報を捉えるためのディープラーニング戦略は存在するが、ネットワークを大きくし、より多くのデータを必要とし、計算を要求されやすく、解釈が難しいものが多い。
本稿では,離散ウェーブレット変換における翻訳と拡張シーケンスと,従来の畳み込みニューラルネットワークとバックプロパゲーションを組み合わせた,最小かつ計算効率のタイムスケールネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-10T16:39:55Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Dissecting U-net for Seismic Application: An In-Depth Study on Deep
Learning Multiple Removal [3.058685580689605]
地震処理は、しばしばデータ収集時に現れる多重を抑圧する必要がある。
我々は、その使い方の複雑さを減らしながら、競争力のある結果を提供するディープラーニングベースの代替案を提示します。
論文 参考訳(メタデータ) (2022-06-24T07:16:27Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Deep learning for time series classification [2.0305676256390934]
時系列分析により、時間の経過とともにプロセスの進化を可視化し、理解することができます。
時系列分類は時系列データを自動的にラベル付けするアルゴリズムで構成されている。
ディープラーニングは、教師付き分類タスクに対処する最も効果的な方法の1つとして登場した。
論文 参考訳(メタデータ) (2020-10-01T17:38:40Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。