論文の概要: ST-USleepNet: A Spatial-Temporal Coupling Prominence Network for Multi-Channel Sleep Staging
- arxiv url: http://arxiv.org/abs/2408.11884v2
- Date: Thu, 23 Jan 2025 03:45:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:55:37.483342
- Title: ST-USleepNet: A Spatial-Temporal Coupling Prominence Network for Multi-Channel Sleep Staging
- Title(参考訳): ST-USleepNet:マルチチャネル睡眠安定のための時空間結合プロミネンスネットワーク
- Authors: Jingying Ma, Qika Lin, Ziyu Jia, Mengling Feng,
- Abstract要約: 時空間グラフ構築モジュール(ST)とU字型睡眠ネットワーク(USleepNet)からなるST-USleepNetという新しいフレームワークを提案する。
STモジュールは、信号類似性、時間的、空間的関係に基づいて生信号を時空間グラフに変換し、時空間結合パターンをモデル化する。
USleepNetは、時間的および空間的ストリームの両方にU字型の構造を採用しており、重要なターゲットを分離するために画像セグメント化に当初使用していたことを反映している。
- 参考スコア(独自算出の注目度): 9.83413257745779
- License:
- Abstract: Sleep staging is critical to assess sleep quality and diagnose disorders. Despite advancements in artificial intelligence enabling automated sleep staging, significant challenges remain: (1) Simultaneously extracting prominent temporal and spatial sleep features from multi-channel raw signals, including characteristic sleep waveforms and salient spatial brain networks. (2) Capturing the spatial-temporal coupling patterns essential for accurate sleep staging. To address these challenges, we propose a novel framework named ST-USleepNet, comprising a spatial-temporal graph construction module (ST) and a U-shaped sleep network (USleepNet). The ST module converts raw signals into a spatial-temporal graph based on signal similarity, temporal, and spatial relationships to model spatial-temporal coupling patterns. The USleepNet employs a U-shaped structure for both the temporal and spatial streams, mirroring its original use in image segmentation to isolate significant targets. Applied to raw sleep signals and graph data from the ST module, USleepNet effectively segments these inputs, simultaneously extracting prominent temporal and spatial sleep features. Testing on three datasets demonstrates that ST-USleepNet outperforms existing baselines, and model visualizations confirm its efficacy in extracting prominent sleep features and temporal-spatial coupling patterns across various sleep stages. The code is available at: https://github.com/Majy-Yuji/ST-USleepNet.git.
- Abstract(参考訳): 睡眠ステージングは睡眠の質と疾患の診断に重要である。
1) 特徴的な睡眠波形や空間的脳ネットワークを含む多チャンネル生信号から時間的・空間的睡眠の特徴を同時に抽出する。
2) 正確な睡眠段階に不可欠な空間的・時間的結合パターンの把握
これらの課題に対処するため、時空間グラフ構築モジュール(ST)とU字型睡眠ネットワーク(USleepNet)からなるST-USleepNetという新しいフレームワークを提案する。
STモジュールは、信号類似性、時間的、空間的関係に基づいて生信号を時空間グラフに変換し、時空間結合パターンをモデル化する。
USleepNetは、時間的および空間的ストリームの両方にU字型の構造を採用しており、重要なターゲットを分離するために画像セグメント化に当初使用していたことを反映している。
STモジュールからの生の睡眠信号とグラフデータに適用すると、USleepNetはこれらの入力を効果的にセグメンテーションし、時間的および空間的な睡眠の特徴を抽出する。
3つのデータセットでテストしたところ、ST-USleepNetは既存のベースラインよりも優れており、モデルビジュアライゼーションは、様々な睡眠段階における顕著な睡眠特徴と時間空間結合パターンの抽出における有効性を確認している。
コードは、https://github.com/Majy-Yuji/ST-USleepNet.gitで入手できる。
関連論文リスト
- WaveSleepNet: An Interpretable Network for Expert-like Sleep Staging [4.4697567606459545]
WaveSleepNetは、スリープステージングのための解釈可能なニューラルネットワークである。
WaveSleepNetは遅延空間表現を使用して、異なる睡眠段階に対応する特性波のプロトタイプを識別する。
WaveSleepNetの有効性は、3つの公開データセットで検証されている。
論文 参考訳(メタデータ) (2024-04-11T03:47:58Z) - Fully-Connected Spatial-Temporal Graph for Multivariate Time-Series Data [50.84488941336865]
完全時空間グラフニューラルネットワーク(FC-STGNN)という新しい手法を提案する。
グラフ構築のために、時間的距離に基づいて、すべてのタイムスタンプにセンサーを接続する減衰グラフを設計する。
グラフ畳み込みのために,移動プールGNN層を用いたFCグラフ畳み込みを考案し,ST依存性を効果的に把握し,効率的な表現を学習する。
論文 参考訳(メタデータ) (2023-09-11T08:44:07Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Quantifying the Impact of Data Characteristics on the Transferability of
Sleep Stage Scoring Models [0.10878040851637998]
遠隔睡眠モニタリングのための有望な方法として,単チャンネル脳波に基づく睡眠ステージ評価のための深層学習モデルが提案されている。
これらのモデルを新しいデータセット、特にウェアラブルデバイスに適用すると、2つの疑問が浮かび上がる。
まず、ターゲットデータセットのアノテーションが利用できない場合、どの異なるデータ特性が睡眠ステージのスコアリングのパフォーマンスに最も影響するか。
本稿では,異なるデータ特性が深層学習モデルの伝達性に与える影響を定量化する手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T07:57:21Z) - L-SeqSleepNet: Whole-cycle Long Sequence Modelling for Automatic Sleep
Staging [16.96499618061823]
L-SeqSleepNetは、睡眠ステージングのためのサイクル全体の睡眠情報を考慮した、新しいディープラーニングモデルである。
L-SeqSleepNetは、N2睡眠の優位性を緩和し、他の睡眠段階におけるエラーを減少させることができる。
論文 参考訳(メタデータ) (2023-01-09T15:44:43Z) - TransSleep: Transitioning-aware Attention-based Deep Neural Network for
Sleep Staging [2.105172041656126]
本稿では,局所的な時間的特徴を捉えた新しいディープニューラルネットワーク構造であるTransSleepを提案する。
その結果,TransSleepは自動睡眠ステージングにおいて有望な性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-03-22T08:55:32Z) - SalientSleepNet: Multimodal Salient Wave Detection Network for Sleep
Staging [10.269152939137854]
本研究では睡眠時ステージングのためのサージェント波検出ネットワークであるSalientSleepNetを提案する。
2つの独立した$rm U2$-likeストリームで構成され、マルチモーダルデータから有能な特徴を抽出する。
2つのデータセットの実験では、SalientSleepNetが最先端のベースラインを上回っていることが示されている。
論文 参考訳(メタデータ) (2021-05-24T16:32:09Z) - Convolutional Neural Networks for Sleep Stage Scoring on a Two-Channel
EEG Signal [63.18666008322476]
睡眠障害は、世界中の主要な病気の1つです。
専門家が使用する基本的なツールはPolysomnogramで、睡眠中に記録された様々な信号の集合である。
専門家は、標準的なガイドラインの1つに従って異なる信号を採点する必要があります。
論文 参考訳(メタデータ) (2021-03-30T09:59:56Z) - Automatic detection of microsleep episodes with deep learning [55.41644538483948]
15秒未満の睡眠の短い断片は、マイクロスリープエピソード(MSEs)として定義される
覚醒検査(MWT)の維持は、警戒を評価するために臨床現場でしばしば用いられる。
MSEは、MSEを定義する確立された評価基準が欠如しているため、ほとんど考慮されていない。
入力として生の脳波とEOGデータに基づいて機械学習を用いてMSEを自動的に検出することを目的とした。
論文 参考訳(メタデータ) (2020-09-07T11:38:40Z) - Multi-Tones' Phase Coding (MTPC) of Interaural Time Difference by
Spiking Neural Network [68.43026108936029]
雑音の多い実環境下での正確な音像定位のための純粋スパイクニューラルネットワーク(SNN)に基づく計算モデルを提案する。
このアルゴリズムを,マイクロホンアレイを用いたリアルタイムロボットシステムに実装する。
実験の結果, 平均誤差方位は13度であり, 音源定位に対する他の生物学的に妥当なニューロモルフィックアプローチの精度を上回っていることがわかった。
論文 参考訳(メタデータ) (2020-07-07T08:22:56Z) - Temporal Pyramid Network for Action Recognition [129.12076009042622]
本稿では,2次元あるいは3次元のバックボーンネットワークに柔軟に統合可能な汎用時間ピラミッドネットワーク(TPN)を提案する。
TPNは、いくつかのアクション認識データセット上で、他の困難なベースラインよりも一貫して改善されている。
論文 参考訳(メタデータ) (2020-04-07T17:17:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。