論文の概要: Heart rate estimation in intense exercise videos
- arxiv url: http://arxiv.org/abs/2208.02509v1
- Date: Thu, 4 Aug 2022 07:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:41:12.843544
- Title: Heart rate estimation in intense exercise videos
- Title(参考訳): 激しい運動ビデオにおける心拍数推定
- Authors: Yeshwanth Napolean, Anwesh Marwade, Nergis Tomen, Puck Alkemade, Thijs
Eijsvogels, Jan van Gemert
- Abstract要約: 既存の作業は、顔追跡によってある程度の動作で心拍数を確実に測定することができる。
IntensePhysioは、ビデオ心拍数推定データセットである。
本手法では,既存の遠隔胸腔鏡撮影法では心拍数推定が困難であることが示唆された。
- 参考スコア(独自算出の注目度): 12.117553807794383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating heart rate from video allows non-contact health monitoring with
applications in patient care, human interaction, and sports. Existing work can
robustly measure heart rate under some degree of motion by face tracking.
However, this is not always possible in unconstrained settings, as the face
might be occluded or even outside the camera. Here, we present IntensePhysio: a
challenging video heart rate estimation dataset with realistic face occlusions,
severe subject motion, and ample heart rate variation. To ensure heart rate
variation in a realistic setting we record each subject for around 1-2 hours.
The subject is exercising (at a moderate to high intensity) on a cycling
ergometer with an attached video camera and is given no instructions regarding
positioning or movement. We have 11 subjects, and approximately 20 total hours
of video. We show that the existing remote photo-plethysmography methods have
difficulty in estimating heart rate in this setting. In addition, we present
IBIS-CNN, a new baseline using spatio-temporal superpixels, which improves on
existing models by eliminating the need for a visible face/face tracking. We
will make the code and data publically available soon.
- Abstract(参考訳): ビデオから心拍数を推定することで、患者のケア、ヒューマンインタラクション、スポーツにおける非接触型健康モニタリングが可能になる。
既存の作業では、顔追跡によって心拍数をある程度の動作でロバストに測定できる。
しかし、顔はカメラの外側に隠されているかもしれないため、制約のない設定では必ずしも可能とは限らない。
IntensePhysioは、現実的な顔の閉塞、重度被写体の動き、および十分な心拍変動を伴う、挑戦的なビデオ心拍推定データセットである。
現実的な設定で心拍変動を確実にするために,各被験者を約1~2時間記録する。
被写体は、ビデオカメラ付きサイクリングエルゴメーター上で(適度〜高強度で)運動しており、位置や動きに関する指示は与えられない。
11の被験者と、約20時間のビデオがある。
そこで本研究では,既存のリモートフォトプレチモグラフィ法では心拍数の推定が困難であることを示す。
In addition, IBIS-CNN, a new baseline using spatio-temporal superpixels, which is improveing on existing model by eliminate the need of a visual face/face tracking。
コードとデータを間もなく公開します。
関連論文リスト
- HumanVid: Demystifying Training Data for Camera-controllable Human Image Animation [64.37874983401221]
人間の画像アニメーションに適した,最初の大規模高品質データセットであるHumanVidを紹介する。
実世界のデータについては、インターネットから大量の実世界のビデオをコンパイルします。
合成データとして,10K3Dアバターを収集し,体形,肌のテクスチャ,衣服などの既存の資産を利用した。
論文 参考訳(メタデータ) (2024-07-24T17:15:58Z) - Chaos in Motion: Unveiling Robustness in Remote Heart Rate Measurement through Brain-Inspired Skin Tracking [7.688280190165613]
既存の遠隔心拍測定法には3つの深刻な問題がある。
コンピュータビジョンタスクにカオス理論を初めて適用し、脳にインスパイアされたフレームワークとなる。
本手法はHR-RSTと呼ばれる心拍計測のためのロバスト皮膚追跡を実現する。
論文 参考訳(メタデータ) (2024-04-11T12:26:10Z) - Physics-based Motion Retargeting from Sparse Inputs [73.94570049637717]
商用AR/VR製品はヘッドセットとコントローラーのみで構成されており、ユーザーのポーズのセンサーデータは非常に限られている。
本研究では, 多様な形態のキャラクタに対して, 粗い人間のセンサデータからリアルタイムに動きをターゲットする手法を提案する。
アバターのポーズは、下半身のセンサー情報がないにもかかわらず、驚くほどよくユーザと一致していることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:57:05Z) - TRACE: 5D Temporal Regression of Avatars with Dynamic Cameras in 3D
Environments [106.80978555346958]
現在の方法では、地球上の座標で動く人間を確実に推定することはできない。
TRACEは、ダイナミックカメラからグローバル座標における3D人間の共同回収と追跡を行う最初の1段階の手法である。
トラッキングとHPSベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-06-05T13:00:44Z) - Dataset Creation Pipeline for Camera-Based Heart Rate Estimation [0.3058685580689604]
心拍数(Heart rate)は、様々な人間の生理的、心理的情報に対する直感を調査し得る最も重要な健康指標の1つである。
従来の画像処理から複雑なディープラーニングモデルやアーキテクチャまで,様々なカメラベース心拍推定技術が開発されている。
本稿では,顔領域の画像から心拍数推定のためのアルゴリズムや機械学習モデルを開発するためのデータ作成方法について論じる。
論文 参考訳(メタデータ) (2023-03-02T18:28:29Z) - Decoupling Human and Camera Motion from Videos in the Wild [67.39432972193929]
本研究では,野生の映像から地球規模の人間の軌道を再構築する手法を提案する。
カメラと人間の動きを分離することで、人間を同じ世界座標系に配置することができる。
論文 参考訳(メタデータ) (2023-02-24T18:59:15Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - Real Time Video based Heart and Respiration Rate Monitoring [5.257115841810259]
スマートフォンカメラは心拍数(HR)と呼吸速度(RR)を測定することができる
グリーンチャネルの強度の変化は、ビデオのi信号によって測定できる。
本研究の目的は、個人の顔の映像を用いて心拍数と呼吸率を抽出する方法を提供することである。
論文 参考訳(メタデータ) (2021-06-04T19:03:21Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - A Supervised Learning Approach for Robust Health Monitoring using Face
Videos [32.157163136267954]
非接触型非接触型人体検知法は、特殊な心臓および血圧モニタリング装置の必要性をなくすことができる。
本稿では,市販のウェブカメラで撮影する顔ビデオのみを必要とする非接触方式を用いた。
提案手法では,顔のランドマークを用いて映像の各フレームの顔を検出する。
論文 参考訳(メタデータ) (2021-01-30T22:03:16Z) - Anatomy-Aware Cardiac Motion Estimation [11.680533842892107]
心筋機能追跡は、シネMRIから直接心臓の動きを推定することができる。
現在の深層学習に基づくFT法は非現実的な心筋形状をもたらす可能性がある。
心臓運動推定のための新しいアナトミー・アウェア・トラッカー (AATracker) を提案する。
論文 参考訳(メタデータ) (2020-08-17T19:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。