論文の概要: Automatic sleep stage classification with deep residual networks in a
mixed-cohort setting
- arxiv url: http://arxiv.org/abs/2008.09416v1
- Date: Fri, 21 Aug 2020 10:48:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:09:33.786974
- Title: Automatic sleep stage classification with deep residual networks in a
mixed-cohort setting
- Title(参考訳): 混合コホート設定における深い残留ネットワークを用いた睡眠ステージの自動分類
- Authors: Alexander Neergaard Olesen, Poul Jennum, Emmanuel Mignot, Helge B D
Sorensen
- Abstract要約: 我々は,大規模コホートの一般化性を評価するために,新しいディープニューラルネットワークモデルを開発した。
総合的な分類精度はトレーニングデータの分数を増やして向上した。
- 参考スコア(独自算出の注目度): 63.52264764099532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Study Objectives: Sleep stage scoring is performed manually by sleep experts
and is prone to subjective interpretation of scoring rules with low intra- and
interscorer reliability. Many automatic systems rely on few small-scale
databases for developing models, and generalizability to new datasets is thus
unknown. We investigated a novel deep neural network to assess the
generalizability of several large-scale cohorts.
Methods: A deep neural network model was developed using 15684
polysomnography studies from five different cohorts. We applied four different
scenarios: 1) impact of varying time-scales in the model; 2) performance of a
single cohort on other cohorts of smaller, greater or equal size relative to
the performance of other cohorts on a single cohort; 3) varying the fraction of
mixed-cohort training data compared to using single-origin data; and 4)
comparing models trained on combinations of data from 2, 3, and 4 cohorts.
Results: Overall classification accuracy improved with increasing fractions
of training data (0.25$\%$: 0.782 $\pm$ 0.097, 95$\%$ CI [0.777-0.787];
100$\%$: 0.869 $\pm$ 0.064, 95$\%$ CI [0.864-0.872]), and with increasing
number of data sources (2: 0.788 $\pm$ 0.102, 95$\%$ CI [0.787-0.790]; 3: 0.808
$\pm$ 0.092, 95$\%$ CI [0.807-0.810]; 4: 0.821 $\pm$ 0.085, 95$\%$ CI
[0.819-0.823]). Different cohorts show varying levels of generalization to
other cohorts.
Conclusions: Automatic sleep stage scoring systems based on deep learning
algorithms should consider as much data as possible from as many sources
available to ensure proper generalization. Public datasets for benchmarking
should be made available for future research.
- Abstract(参考訳): 研究目的:睡眠ステージスコアリングは、睡眠専門家によって手作業で行われ、スコアリングルールの主観的解釈と、低い内的・間的信頼性が引き起こされる。
多くの自動システムはモデル開発に少数の小規模データベースに依存しており、新しいデータセットへの一般化性は未知である。
大規模コホートの一般化性を評価するために,新しい深層ニューラルネットワークを検討した。
方法: 5つのコホートから15684個のポリソムノグラフィを用いて深層ニューラルネットワークモデルを開発した。
4つのシナリオを適用しました
1) モデルにおける様々な時間スケールの影響
2) 1つのコホートにおける他のコホートのパフォーマンスと比較して,より小さく,大きい,または等の大きさのコホートに対する1つのコホートのパフォーマンス
3)シングルオリジンデータと比較すると、混合コホート訓練データの割合が変わる。
4)2,3,4コホートのデータの組み合わせで訓練したモデルを比較した。
結果: 総合的な分類精度は、トレーニングデータの割合の増大(0.25$\%$: 0.782$\pm$ 0.097, 95$\%$ CI [0.777-0.787]; 100$\%$: 0.869$\pm$ 0.064, 95$\%$ CI [0.864-0.872])と、データソースの増加(2: 0.788$\pm$ 0.102, 95$\%$ CI [0.787-0.790]; 3: 0.8$\pm$ 0.092, 95$\%$ CI [0.807-0.810]; 4: 0.821$\pm$ 0.092, 95$\%$ CI [0.807-0.823])によって改善された。
異なるコホートは他のコホートに対して様々なレベルの一般化を示す。
結論: ディープラーニングアルゴリズムに基づく自動睡眠ステージスコアリングシステムは、適切な一般化を確保するために利用可能な多くのソースからできる限り多くのデータを考慮すべきである。
ベンチマークのための公開データセットは、将来の研究のために提供する必要がある。
関連論文リスト
- Harnessing Increased Client Participation with Cohort-Parallel Federated Learning [2.9593087583214173]
Federated Learning(FL)は、ノードがグローバルモデルを協調的にトレーニングする機械学習アプローチである。
本稿では,Cohort-Parallel Federated Learning (CPFL)を紹介する。
4つのコホート、非IIDデータ分散、CIFAR-10を持つCPFLは、列車の時間短縮に1.9$times$、資源使用量削減に1.3$times$である。
論文 参考訳(メタデータ) (2024-05-24T15:34:09Z) - E(2) Equivariant Neural Networks for Robust Galaxy Morphology
Classification [0.0]
我々は、Galaxy10 DECalsデータセット上で$E(2)$の離散サブグループに同値なGCNNを訓練し、検証し、テストする。
D_16$に同値なアーキテクチャは、テストセットの精度が9,5.52 pm 0.18%である。
全てのGCNNは、同一に構築されたCNNよりも1ピクセルの摂動の影響を受けにくい。
論文 参考訳(メタデータ) (2023-11-02T18:00:02Z) - Offline Reinforcement Learning at Multiple Frequencies [62.08749079914275]
本研究では、オフライン強化学習アルゴリズムが、トレーニング中に複数の周波数を混合したデータに対応できるかどうかについて検討する。
学習を安定させるために$Q$-valueの更新率で一貫性を強制する、単純だが効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-07-26T17:54:49Z) - Deconstructing Distributions: A Pointwise Framework of Learning [15.517383696434162]
テスト分布におけるモデルの平均性能と、この個々の点におけるポイントワイズ性能の関係について調べる。
プロファイルは、モデルとデータの構造 -- 分布の内外 -- に新しい洞察を与えることができる。
論文 参考訳(メタデータ) (2022-02-20T23:25:28Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - Ensemble of Convolution Neural Networks on Heterogeneous Signals for
Sleep Stage Scoring [63.30661835412352]
本稿では,脳波以外の追加信号の利用の利便性について検討し,比較する。
最も優れたモデルである深部分離畳み込みニューラルネットワークのアンサンブルは86.06%の精度を達成した。
論文 参考訳(メタデータ) (2021-07-23T06:37:38Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Learning Realistic Patterns from Unrealistic Stimuli: Generalization and
Data Anonymization [0.5091527753265949]
本研究は、匿名化されたデータ合成において、サードパーティがそのようなプライベートデータから恩恵を受けられるような、シンプルかつ非従来的なアプローチについて検討する。
オープンおよび大規模臨床研究の睡眠モニタリングデータを用いて,(1)エンドユーザーが睡眠時無呼吸検出のためにカスタマイズされた分類モデルを作成し,有効活用できるかどうかを評価し,(2)研究参加者の身元を保護した。
論文 参考訳(メタデータ) (2020-09-21T16:31:21Z) - Question Type Classification Methods Comparison [0.0]
本稿では、ロジスティック回帰、畳み込みニューラルネットワーク(CNN)、Long Short-Term Memory Network(LSTM)、Quasi-Recurrent Neural Networks(QRNN)といった問題分類タスクに対する最先端のアプローチの比較研究について述べる。
すべてのモデルは、事前訓練されたGLoVeワードの埋め込みを使用し、人間のラベル付きデータに基づいて訓練される。
最良の精度は5つの畳み込み層と、並列に積み重ねられたさまざまなカーネルサイズを持つCNNモデルを使用して達成され、その後に1つの完全に接続された層が続く。
論文 参考訳(メタデータ) (2020-01-03T00:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。