論文の概要: Personalized Automatic Sleep Staging with Single-Night Data: a Pilot
Study with KL-Divergence Regularization
- arxiv url: http://arxiv.org/abs/2004.11349v2
- Date: Mon, 11 May 2020 23:16:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:10:19.590430
- Title: Personalized Automatic Sleep Staging with Single-Night Data: a Pilot
Study with KL-Divergence Regularization
- Title(参考訳): シングルナイトデータによるパーソナライズされた自動睡眠停止:KL-divergence Regularizationによるパイロット研究
- Authors: Huy Phan, Kaare Mikkelsen, Oliver Y. Ch\'en, Philipp Koch, Alfred
Mertins, Preben Kidmose, Maarten De Vos
- Abstract要約: この問題に対処するために,Kulback-Leibler(KL)分散正規化トランスファーラーニング手法を提案する。
トレーニング済みのSeqSleepNetを出発点として、一晩のパーソナライズデータを精査し、パーソナライズされたモデルを導出する。
75名の被験者によるSleep-EDF Expandedデータベースの実験結果は、提案したKL分割正規化の助けを借りて、一晩データによる睡眠ステージのパーソナライズが可能であることを示している。
- 参考スコア(独自算出の注目度): 18.754100926147903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain waves vary between people. An obvious way to improve automatic sleep
staging for longitudinal sleep monitoring is personalization of algorithms
based on individual characteristics extracted from the first night of data. As
a single night is a very small amount of data to train a sleep staging model,
we propose a Kullback-Leibler (KL) divergence regularized transfer learning
approach to address this problem. We employ the pretrained SeqSleepNet (i.e.
the subject independent model) as a starting point and finetune it with the
single-night personalization data to derive the personalized model. This is
done by adding the KL divergence between the output of the subject independent
model and the output of the personalized model to the loss function during
finetuning. In effect, KL-divergence regularization prevents the personalized
model from overfitting to the single-night data and straying too far away from
the subject independent model. Experimental results on the Sleep-EDF Expanded
database with 75 subjects show that sleep staging personalization with a
single-night data is possible with help of the proposed KL-divergence
regularization. On average, we achieve a personalized sleep staging accuracy of
79.6%, a Cohen's kappa of 0.706, a macro F1-score of 73.0%, a sensitivity of
71.8%, and a specificity of 94.2%. We find both that the approach is robust
against overfitting and that it improves the accuracy by 4.5 percentage points
compared to non-personalization and 2.2 percentage points compared to
personalization without regularization.
- Abstract(参考訳): 脳波は人によって異なる。
縦断睡眠モニタリングのための自動睡眠ステージングを改善する明確な方法は、初夜のデータから抽出された個々の特性に基づくアルゴリズムのパーソナライズである。
睡眠ステージングモデルのトレーニングには,1晩のデータは極めて少ないため,この問題に対処するためにkullback-leibler (kl) divergence regularized transfer learningアプローチを提案する。
トレーニング済みのSeqSleepNet(即ち、対象独立モデル)を出発点として、一晩のパーソナライズデータを用いて微調整し、パーソナライズされたモデルを導出する。
これは、被写体独立モデルの出力とパーソナライズされたモデルの出力とを微調整中に損失関数にKL分散させることによって行われる。
事実上、kl-divergence正規化は、パーソナライズされたモデルを単夜のデータに過度に適合させ、主題独立モデルから遠ざかることを防ぐ。
被験者75名によるsleep-edf拡張データベースを用いた実験の結果,提案するkl-divergence正規化により,単夜データによる睡眠ステージのパーソナライズが可能であった。
平均すると、パーソナライズされた睡眠ステージングの精度は79.6%、コーエンのkappa 0.706、マクロf1-score 73.0%、感度71.8%、特異度94.2%である。
このアプローチは過剰フィッティングに対して頑健であり、非パーソナライゼーションと比較して4.5ポイント、正規化なしのパーソナライゼーションよりも2.2ポイント精度が向上する。
関連論文リスト
- Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Quantifying the Impact of Data Characteristics on the Transferability of
Sleep Stage Scoring Models [0.10878040851637998]
遠隔睡眠モニタリングのための有望な方法として,単チャンネル脳波に基づく睡眠ステージ評価のための深層学習モデルが提案されている。
これらのモデルを新しいデータセット、特にウェアラブルデバイスに適用すると、2つの疑問が浮かび上がる。
まず、ターゲットデータセットのアノテーションが利用できない場合、どの異なるデータ特性が睡眠ステージのスコアリングのパフォーマンスに最も影響するか。
本稿では,異なるデータ特性が深層学習モデルの伝達性に与える影響を定量化する手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T07:57:21Z) - SA-DPSGD: Differentially Private Stochastic Gradient Descent based on
Simulated Annealing [25.25065807901922]
差分勾配降下法は画像認識における差分プライバシーを持つ最も一般的な訓練法である。
既存のDPSGDスキームは性能を著しく低下させ、差分プライバシーの適用を妨げている。
本稿では, 更新品質とイテレーション数に依存する確率で, 候補更新を受理するSA-DPSGD(Simulated annealing-based differentially private gradient descent scheme)を提案する。
論文 参考訳(メタデータ) (2022-11-14T09:20:48Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Sleep Staging Based on Serialized Dual Attention Network [0.0]
生の脳波に基づく深層学習モデルSDANを提案する。
チャネルアテンションと空間アテンション機構を連続的に組み合わせて、キー情報をフィルタリングしハイライトする。
他の方法と比較して、N1睡眠期において優れた結果が得られる。
論文 参考訳(メタデータ) (2021-07-18T13:18:12Z) - Convolutional Neural Networks for Sleep Stage Scoring on a Two-Channel
EEG Signal [63.18666008322476]
睡眠障害は、世界中の主要な病気の1つです。
専門家が使用する基本的なツールはPolysomnogramで、睡眠中に記録された様々な信号の集合である。
専門家は、標準的なガイドラインの1つに従って異なる信号を採点する必要があります。
論文 参考訳(メタデータ) (2021-03-30T09:59:56Z) - MSED: a multi-modal sleep event detection model for clinical sleep
analysis [62.997667081978825]
ポリソムノグラムで睡眠イベントを共同検出する,単一のディープニューラルネットワークアーキテクチャを設計した。
モデルの性能は,F1,精度,リコールスコア,および指標値と臨床値との相関で定量化した。
論文 参考訳(メタデータ) (2021-01-07T13:08:44Z) - RobustSleepNet: Transfer learning for automated sleep staging at scale [0.0]
睡眠障害の診断は、PSG(polysomnography)レコードの分析に依存する。
実際には、睡眠ステージ分類は、ポリソムノグラフィー信号の30秒エポックの視覚検査に依存します。
我々は、任意のPSGモンタージュを扱える自動睡眠ステージ分類のためのディープラーニングモデルであるRobustSleepNetを紹介する。
論文 参考訳(メタデータ) (2021-01-07T09:39:08Z) - Interpretable Machine Learning Approaches to Prediction of Chronic
Homelessness [2.294014185517203]
特定されていない顧客避難記録から慢性的なホームレスを予測するための機械学習手法を提案する。
我々のモデルであるHIFIS-RNN-MLPは、クライアントの過去6ヶ月の慢性的なホームレスを予測するために、クライアントの履歴の静的特徴と動的特徴の両方を取り入れている。
論文 参考訳(メタデータ) (2020-09-12T15:02:30Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。