論文の概要: XSleepNet: Multi-View Sequential Model for Automatic Sleep Staging
- arxiv url: http://arxiv.org/abs/2007.05492v4
- Date: Wed, 31 Mar 2021 21:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:51:23.099686
- Title: XSleepNet: Multi-View Sequential Model for Automatic Sleep Staging
- Title(参考訳): XSleepNet:自動睡眠停止のためのマルチビューシーケンスモデル
- Authors: Huy Phan, Oliver Y. Ch\'en, Minh C. Tran, Philipp Koch, Alfred
Mertins, Maarten De Vos
- Abstract要約: XSleepNetは生信号と時間周波数の画像から共同表現を学習することができる。
XSleepNetは単一のビューベースラインと単純な融合戦略でマルチビューベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 20.431381506373395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automating sleep staging is vital to scale up sleep assessment and diagnosis
to serve millions experiencing sleep deprivation and disorders and enable
longitudinal sleep monitoring in home environments. Learning from raw
polysomnography signals and their derived time-frequency image representations
has been prevalent. However, learning from multi-view inputs (e.g., both the
raw signals and the time-frequency images) for sleep staging is difficult and
not well understood. This work proposes a sequence-to-sequence sleep staging
model, XSleepNet, that is capable of learning a joint representation from both
raw signals and time-frequency images. Since different views may generalize or
overfit at different rates, the proposed network is trained such that the
learning pace on each view is adapted based on their generalization/overfitting
behavior. In simple terms, the learning on a particular view is speeded up when
it is generalizing well and slowed down when it is overfitting. View-specific
generalization/overfitting measures are computed on-the-fly during the training
course and used to derive weights to blend the gradients from different views.
As a result, the network is able to retain the representation power of
different views in the joint features which represent the underlying
distribution better than those learned by each individual view alone.
Furthermore, the XSleepNet architecture is principally designed to gain
robustness to the amount of training data and to increase the complementarity
between the input views. Experimental results on five databases of different
sizes show that XSleepNet consistently outperforms the single-view baselines
and the multi-view baseline with a simple fusion strategy. Finally, XSleepNet
also outperforms prior sleep staging methods and improves previous
state-of-the-art results on the experimental databases.
- Abstract(参考訳): 睡眠ステージの自動化は、数百万人の睡眠不足と障害を経験し、家庭環境における長期睡眠モニタリングを可能にするために、睡眠アセスメントと診断のスケールアップに不可欠である。
生のポリソムノグラフィ信号とその時間周波数画像表現からの学習が盛んである。
しかし、睡眠ステージングのためのマルチビュー入力(例えば、生信号と時間周波数画像の両方)からの学習は困難であり、よく理解されていない。
本研究は、生信号と時間周波数画像の両方から共同表現を学習可能なシーケンス・ツー・シーケンススリープステージングモデルXSleepNetを提案する。
異なる視点が、異なるレートで一般化または過剰適合する可能性があるため、提案したネットワークは、その一般化/過適合行動に基づいて、各視点での学習ペースが適応するように訓練される。
簡単に言えば、特定のビューでの学習は、うまく一般化しているときにスピードアップされ、オーバーフィット時に遅くなります。
ビュー固有の一般化/オーバーフィッティング測度は、トレーニングコース中にオンザフライで計算され、異なるビューから勾配をブレンドするためにウェイトを導出するために使用される。
結果として、ネットワークは、個々のビューだけで学んだものよりも基盤となる分布を表現するジョイント特徴において、異なるビューの表現力を保持できる。
さらに、xsleepnetアーキテクチャは、トレーニングデータ量に堅牢性を持たせ、入力ビュー間の相補性を高めるために設計されている。
異なる大きさのデータベース5つの実験結果は、xsleepnetが単純な融合戦略でシングルビューベースラインとマルチビューベースラインを一貫して上回っていることを示している。
最後に、xsleepnetは以前の睡眠ステージングメソッドよりも優れており、実験データベースの以前の結果を改善している。
関連論文リスト
- One Diffusion to Generate Them All [54.82732533013014]
OneDiffusionは双方向画像合成と理解をサポートする汎用的で大規模な拡散モデルである。
テキスト、深さ、ポーズ、レイアウト、セマンティックマップなどの入力から条件生成を可能にする。
OneDiffusionは、シーケンシャルな画像入力を使用して、マルチビュー生成、カメラポーズ推定、即時パーソナライズを可能にする。
論文 参考訳(メタデータ) (2024-11-25T12:11:05Z) - ST-USleepNet: A Spatial-Temporal Coupling Prominence Network for Multi-Channel Sleep Staging [9.83413257745779]
睡眠ステージングは、睡眠の質を評価し、障害を診断するために重要である。
近年の人工知能の進歩により、自動睡眠ステージリングモデルの開発が進められている。
本稿では,時空間グラフ構築モジュールとU字型睡眠ネットワークからなるST-USleepNetという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T14:57:44Z) - WaveSleepNet: An Interpretable Network for Expert-like Sleep Staging [4.4697567606459545]
WaveSleepNetは、スリープステージングのための解釈可能なニューラルネットワークである。
WaveSleepNetは遅延空間表現を使用して、異なる睡眠段階に対応する特性波のプロトタイプを識別する。
WaveSleepNetの有効性は、3つの公開データセットで検証されている。
論文 参考訳(メタデータ) (2024-04-11T03:47:58Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - Quantifying the Impact of Data Characteristics on the Transferability of
Sleep Stage Scoring Models [0.10878040851637998]
遠隔睡眠モニタリングのための有望な方法として,単チャンネル脳波に基づく睡眠ステージ評価のための深層学習モデルが提案されている。
これらのモデルを新しいデータセット、特にウェアラブルデバイスに適用すると、2つの疑問が浮かび上がる。
まず、ターゲットデータセットのアノテーションが利用できない場合、どの異なるデータ特性が睡眠ステージのスコアリングのパフォーマンスに最も影響するか。
本稿では,異なるデータ特性が深層学習モデルの伝達性に与える影響を定量化する手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T07:57:21Z) - L-SeqSleepNet: Whole-cycle Long Sequence Modelling for Automatic Sleep
Staging [16.96499618061823]
L-SeqSleepNetは、睡眠ステージングのためのサイクル全体の睡眠情報を考慮した、新しいディープラーニングモデルである。
L-SeqSleepNetは、N2睡眠の優位性を緩和し、他の睡眠段階におけるエラーを減少させることができる。
論文 参考訳(メタデータ) (2023-01-09T15:44:43Z) - ProductGraphSleepNet: Sleep Staging using Product Spatio-Temporal Graph
Learning with Attentive Temporal Aggregation [4.014524824655106]
本研究では,協調時間グラフ学習のための適応型製品グラフ学習型グラフ畳み込みネットワークProductGraphSleepNetを提案する。
提案したネットワークにより、臨床医は学習した睡眠段階の接続グラフを理解し、解釈することができる。
論文 参考訳(メタデータ) (2022-12-09T14:34:58Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Convolutional Neural Networks for Sleep Stage Scoring on a Two-Channel
EEG Signal [63.18666008322476]
睡眠障害は、世界中の主要な病気の1つです。
専門家が使用する基本的なツールはPolysomnogramで、睡眠中に記録された様々な信号の集合である。
専門家は、標準的なガイドラインの1つに従って異なる信号を採点する必要があります。
論文 参考訳(メタデータ) (2021-03-30T09:59:56Z) - CharacterGAN: Few-Shot Keypoint Character Animation and Reposing [64.19520387536741]
本稿では,与えられた文字の少数のサンプルに対してのみトレーニング可能な生成モデルである characterGAN を紹介する。
我々のモデルはキーポイント位置に基づいて新しいポーズを生成し、インタラクティブなフィードバックを提供しながらリアルタイムで修正することができる。
提案手法は,近年のベースラインよりも優れており,多様なキャラクタに対してリアルなアニメーションを生成する。
論文 参考訳(メタデータ) (2021-02-05T12:38:15Z) - Unsupervised Learning on Monocular Videos for 3D Human Pose Estimation [121.5383855764944]
コントラッシブな自己教師学習を用いて、シングルビュービデオからリッチな潜伏ベクトルを抽出する。
また,CSSを時間変化の特徴のみに適用すると同時に,入力を再構築し,近辺と遠方の特徴間の段階的な遷移を促すことにより,リッチな潜伏空間が得られることを示す。
本手法は他の教師なしシングルビュー手法よりも優れており,マルチビュー手法の性能と一致している。
論文 参考訳(メタデータ) (2020-12-02T20:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。