論文の概要: Contactless Cardiac Pulse Monitoring Using Event Cameras
- arxiv url: http://arxiv.org/abs/2505.09529v1
- Date: Wed, 14 May 2025 16:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.531264
- Title: Contactless Cardiac Pulse Monitoring Using Event Cameras
- Title(参考訳): イベントカメラを用いた非接触型心臓パルスモニタリング
- Authors: Mohamed Moustafa, Joseph Lemley, Peter Corcoran,
- Abstract要約: 本研究では,顔の時系列記録から心パルス信号の接触のない再構成について検討した。
イベントストリームの二次元表現から心臓信号を抽出するために、エンドツーエンドモデルを訓練する。
実験の結果, 顔面領域の生理的心情報はイベントストリーム内に有効に保存されていることが確認された。
- 参考スコア(独自算出の注目度): 0.10923877073891444
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Time event cameras are a novel technology for recording scene information at extremely low latency and with low power consumption. Event cameras output a stream of events that encapsulate pixel-level light intensity changes within the scene, capturing information with a higher dynamic range and temporal resolution than traditional cameras. This study investigates the contact-free reconstruction of an individual's cardiac pulse signal from time event recording of their face using a supervised convolutional neural network (CNN) model. An end-to-end model is trained to extract the cardiac signal from a two-dimensional representation of the event stream, with model performance evaluated based on the accuracy of the calculated heart rate. The experimental results confirm that physiological cardiac information in the facial region is effectively preserved within the event stream, showcasing the potential of this novel sensor for remote heart rate monitoring. The model trained on event frames achieves a root mean square error (RMSE) of 3.32 beats per minute (bpm) compared to the RMSE of 2.92 bpm achieved by the baseline model trained on standard camera frames. Furthermore, models trained on event frames generated at 60 and 120 FPS outperformed the 30 FPS standard camera results, achieving an RMSE of 2.54 and 2.13 bpm, respectively.
- Abstract(参考訳): タイムイベントカメラは、非常に低レイテンシで低消費電力でシーン情報を記録するための新しい技術である。
イベントカメラは、シーン内のピクセルレベルの光強度変化をカプセル化する一連のイベントを出力し、従来のカメラよりもダイナミックレンジと時間分解能の高い情報をキャプチャする。
本研究では, 教師付き畳み込みニューラルネットワーク(CNN)モデルを用いて, 顔の時系列記録から心パルス信号の接触のない再構成について検討した。
エンド・ツー・エンドのモデルを用いて、計算した心拍の精度に基づいてモデル性能の評価を行い、イベントストリームの2次元表現から心臓信号を抽出する。
実験の結果, 顔面領域の生理的心情報はイベントストリーム内に有効に保存されており, 遠隔心拍モニタリングのための新しいセンサの可能性を示している。
イベントフレームでトレーニングされたモデルは、標準的なカメラフレームでトレーニングされたベースラインモデルによって達成された2.92 bpmのRMSEと比較して、ルート平均2乗誤差(RMSE)は3.32回毎分(bpm)である。
さらに、60FPSと120FPSで生成されたイベントフレームで訓練されたモデルは、30FPSの標準カメラより優れており、RMSEはそれぞれ2.54bpmと2.13bpmである。
関連論文リスト
- Inter-event Interval Microscopy for Event Cameras [52.05337480169517]
イベントカメラは、革新的なバイオインスパイアされたセンサーであり、強度を直接知覚するのではなく、強度の変化を感知することで従来のカメラとは異なる。
蛍光顕微鏡における静的および動的シーンの静的なイベントカメラを用いたイベント・ツー・インテンシティ変換を実現する。
我々は,ハイダイナミックレンジや高速シナリオなど,様々な場面でIEIMatデータセットを収集した。
論文 参考訳(メタデータ) (2025-04-07T11:05:13Z) - Time-Series U-Net with Recurrence for Noise-Robust Imaging Photoplethysmography [14.749406169315554]
Photoplethysmography systemは、顔とランドマークの検出、時系列抽出、パルス信号/パルスレート推定の3つのモジュールで構成されている。
TURNIPと呼ばれるパルス信号推定モジュールは、基礎となるパルス信号波形を忠実に再構築することを可能にする。
我々のアルゴリズムは、特殊なセンサーや皮膚との接触を必要とせず、信頼性の高い心拍数推定を提供する。
論文 参考訳(メタデータ) (2025-03-21T17:52:33Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - Heart Rate Detection Using an Event Camera [1.8020166013859684]
イベントカメラはニューロモルフィックカメラとしても知られ、従来のシャッターやフレームベースのカメラよりも有利な新興技術である。
本稿では,手首領域の脈動性血流による皮膚表面の微妙な変化を捉えるために,イベントベースのカメラの能力を活用することを提案する。
論文 参考訳(メタデータ) (2023-09-21T08:51:30Z) - Neuromorphic Seatbelt State Detection for In-Cabin Monitoring with Event
Cameras [0.932065750652415]
本研究は,シートベルト状態検出を含むイベントベースDMS技術を拡張するための概念実証を提供する。
二つの分類課題において, 実検体と実検体でF1スコアが0.989, 0.944と同定された。
論文 参考訳(メタデータ) (2023-08-15T14:27:46Z) - LFPS-Net: a lightweight fast pulse simulation network for BVP estimation [4.631302854901082]
リモート光胸腺撮影に基づく心拍推定は、健康モニタリングや疲労検出など、いくつかの特定のシナリオにおいて重要な役割を果たす。
既存の方法は、30秒の顔ビデオの最終結果として、複数の重なり合うビデオクリップの予測HRの平均を取ることにコミットする。
本稿では,高速パルスシミュレーションネットワーク(LFPS-Net)を提案する。
論文 参考訳(メタデータ) (2022-06-25T05:24:52Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Real-Time Face & Eye Tracking and Blink Detection using Event Cameras [3.842206880015537]
イベントカメラには、各ピクセルの局所的な光強度の変化を捉え、非同期イベントのストリームを生成する、新しいニューロモルフィックな視覚センサが含まれている。
ドライバー監視システム(英: Driver monitoring system、DMS)は、ドライバーの身体的および認知状態を感知し理解するために設計されたキャビン内の安全システムである。
本稿では,運転者監視のための顔と視線を同時に検出・追跡する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-16T10:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。