論文の概要: Deep Learning-Enabled Sleep Staging From Vital Signs and Activity
Measured Using a Near-Infrared Video Camera
- arxiv url: http://arxiv.org/abs/2306.03711v1
- Date: Tue, 6 Jun 2023 14:21:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 15:17:59.596493
- Title: Deep Learning-Enabled Sleep Staging From Vital Signs and Activity
Measured Using a Near-Infrared Video Camera
- Title(参考訳): 近赤外ビデオカメラによるバイタルサインと活動からの深層学習型睡眠ステージング
- Authors: Jonathan Carter, Jo\~ao Jorge, Bindia Venugopal, Oliver Gibson, Lionel
Tarassenko
- Abstract要約: 我々は、近赤外線ビデオカメラから得られる心拍数、呼吸速度、活動測定値を用いて睡眠ステージ分類を行う。
我々は4クラス睡眠段階分類において73.4%の精度とコーエンのカッパ0.61の精度を達成した。
- 参考スコア(独自算出の注目度): 1.0499611180329802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional sleep monitoring is time-consuming, expensive and uncomfortable,
requiring a large number of contact sensors to be attached to the patient.
Video data is commonly recorded as part of a sleep laboratory assessment. If
accurate sleep staging could be achieved solely from video, this would overcome
many of the problems of traditional methods. In this work we use heart rate,
breathing rate and activity measures, all derived from a near-infrared video
camera, to perform sleep stage classification. We use a deep transfer learning
approach to overcome data scarcity, by using an existing contact-sensor dataset
to learn effective representations from the heart and breathing rate time
series. Using a dataset of 50 healthy volunteers, we achieve an accuracy of
73.4\% and a Cohen's kappa of 0.61 in four-class sleep stage classification,
establishing a new state-of-the-art for video-based sleep staging.
- Abstract(参考訳): 従来の睡眠モニタリングは、時間がかかり、高価で不快であり、多くのコンタクトセンサーを患者に装着する必要がある。
ビデオデータは一般に睡眠検査の一部として記録される。
正確な睡眠ステージングがビデオだけで達成できれば、従来の方法の多くの問題を克服できるだろう。
本研究では,近赤外線ビデオカメラから派生した心拍数,呼吸数,活動測定値を用いて睡眠ステージの分類を行う。
既存のコンタクトセンサーデータセットを用いて、心拍数と呼吸速度時系列から効果的な表現を学習することにより、データ不足を克服するディープトランスファー学習手法を用いる。
健康な50人のボランティアのデータセットを用いて、4クラス睡眠ステージ分類において73.4\%の精度と0.61のCohenのカッパを達成し、ビデオベースの睡眠ステージのための新しい最先端技術を確立した。
関連論文リスト
- SleepVST: Sleep Staging from Near-Infrared Video Signals using Pre-Trained Transformers [0.6599755599064447]
本研究では,カメラベース睡眠ステージ分類における最先端性能を実現するトランスフォーマーモデルであるSleepVSTを紹介する。
本研究では,ビデオから抽出した呼吸波形にSleepVSTをうまく移行させることにより,完全接触型睡眠ステージリングが可能となることを示す。
論文 参考訳(メタデータ) (2024-04-04T23:24:14Z) - SlAction: Non-intrusive, Lightweight Obstructive Sleep Apnea Detection
using Infrared Video [1.850099608285478]
閉塞性睡眠時無呼吸症(Osstructive sleep apnea,OSA)は、全世界で約10億人の人が発症する睡眠障害である。
Infrared video を用いた日常睡眠環境のための非侵入型OSA検出システム SlAction を提案する。
論文 参考訳(メタデータ) (2023-09-06T04:52:02Z) - Sleep Quality Prediction from Wearables using Convolution Neural
Networks and Ensemble Learning [0.0]
睡眠は、日々のパフォーマンス、幸福、生活の質に影響を与える最も重要な要因の一つである。
カメラの記録や画像からの状態を抽出する代わりに、手首に装着したデバイスは加速度計、心拍数、心拍変動センサーを介して直接測定することができる。
測定された特徴は、就寝時間、就寝時間、就寝時間、就寝時間、就寝時間、覚醒後就寝時間である。
論文 参考訳(メタデータ) (2023-03-08T18:08:08Z) - Sleep Activity Recognition and Characterization from Multi-Source
Passively Sensed Data [67.60224656603823]
睡眠活動認識法は、被験者の睡眠覚醒サイクルを評価し、監視し、特徴づけ、行動の変化を検出する指標を提供することができる。
本稿では,スマートフォンから受動的に知覚されたデータを連続的に操作して,睡眠の特徴を識別し,重要な睡眠エピソードを識別する一般的な方法を提案する。
これらの装置は、その用途により、連続的で客観的で非侵襲的な方法で被験者の生体リズムをプロファイルするための優れた代替データ源となっている。
論文 参考訳(メタデータ) (2023-01-17T15:18:45Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Using Ballistocardiography for Sleep Stage Classification [2.360019611990601]
睡眠ステージ検出の現在の方法は高価で、人の睡眠に侵入し、現代の家庭では実用的ではない。
バリスト心電図(英: Ballistocardiography、BCG)は、心臓が生み出す弾道力を測定することで情報を収集する非侵襲的なセンシング技術である。
本稿では,Fitbit Sense Smart Watchから抽出した睡眠ステージと,睡眠ステージ検出アルゴリズムを実装して比較する。
論文 参考訳(メタデータ) (2022-02-02T14:02:48Z) - In-Bed Person Monitoring Using Thermal Infrared Sensors [53.561797148529664]
パナソニックグリッド(Panasonic Grid-EYE)は、低解像度の赤外線サーモパイルアレイセンサーで、よりプライバシーを提供する。
この目的のために、2つのデータセットが取得され、1つ (480 画像) は一定条件で、もう1つ (200 画像) は異なるバリエーションで取得された。
我々は、SVM(Support Vector Machines)、k-Nearest Neighbors(k-NN)、Neural Network(NN)の3つの機械学習アルゴリズムをテストする。
論文 参考訳(メタデータ) (2021-07-16T15:59:07Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Temporal convolutional networks and transformers for classifying the
sleep stage in awake or asleep using pulse oximetry signals [0.0]
覚醒・睡眠中の睡眠段階をパルスオキシメータからのHR信号のみを用いて分類することを目的としたネットワークアーキテクチャを開発する。
トランスフォーマーはシーケンスをモデル化し、睡眠段階間の遷移ルールを学ぶことができる。
全体の正確性、特異性、感受性、およびコーエンのカッパ係数は90.0%, 94.9%, 78.1%, 0.73であった。
論文 参考訳(メタデータ) (2021-01-29T22:58:33Z) - Multimodal In-bed Pose and Shape Estimation under the Blankets [77.12439296395733]
マルチモーダルセンサが捉えた知識を最大限活用するために,様々なモダリティを融合するピラミッド方式を提案する。
我々は注意に基づく再構築モジュールを用いて検出されたモダリティを生成し,現在の推定値を更新するためにさらに融合する。
論文 参考訳(メタデータ) (2020-12-12T05:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。