論文の概要: How Suboptimal is Training rPPG Models with Videos and Targets from Different Body Sites?
- arxiv url: http://arxiv.org/abs/2403.10582v1
- Date: Fri, 15 Mar 2024 15:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 22:44:00.447669
- Title: How Suboptimal is Training rPPG Models with Videos and Targets from Different Body Sites?
- Title(参考訳): 異なる身体部位からの映像とターゲットを用いたrPPGモデルの訓練方法
- Authors: Björn Braun, Daniel McDuff, Christian Holz,
- Abstract要約: 現在のモデルのほとんどは、指先をターゲット/ラベルとして接触PSG測定を用いて、顔ビデオでトレーニングされている。
ニューラルモデルでは,前頭部でトレーニングすると,基底真理PSG信号のモルフォロジーがより良く予測できることが示される。
- 参考スコア(独自算出の注目度): 40.527994999118725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Remote camera measurement of the blood volume pulse via photoplethysmography (rPPG) is a compelling technology for scalable, low-cost, and accessible assessment of cardiovascular information. Neural networks currently provide the state-of-the-art for this task and supervised training or fine-tuning is an important step in creating these models. However, most current models are trained on facial videos using contact PPG measurements from the fingertip as targets/ labels. One of the reasons for this is that few public datasets to date have incorporated contact PPG measurements from the face. Yet there is copious evidence that the PPG signals at different sites on the body have very different morphological features. Is training a facial video rPPG model using contact measurements from another site on the body suboptimal? Using a recently released unique dataset with synchronized contact PPG and video measurements from both the hand and face, we can provide precise and quantitative answers to this question. We obtain up to 40 % lower mean squared errors between the waveforms of the predicted and the ground truth PPG signals using state-of-the-art neural models when using PPG signals from the forehead compared to using PPG signals from the fingertip. We also show qualitatively that the neural models learn to predict the morphology of the ground truth PPG signal better when trained on the forehead PPG signals. However, while models trained from the forehead PPG produce a more faithful waveform, models trained from a finger PPG do still learn the dominant frequency (i.e., the heart rate) well.
- Abstract(参考訳): 光胸筋電図(rPPG)による血流パルスのリモートカメラ計測は、拡張性、低コスト、アクセス可能な心血管情報評価のための魅力的な技術である。
ニューラルネットワークは現在、このタスクの最先端を提供しており、これらのモデルを作成する上では、教師付きトレーニングや微調整が重要なステップである。
しかし、現在のほとんどのモデルは、指先をターゲット/ラベルとして接触PSG測定を用いて、顔ビデオで訓練されている。
この理由の1つは、顔からの接触PSG測定を組み込んだ公開データセットがほとんどないことである。
しかし、体上の異なる部位のPSGシグナルは、非常に異なる形態的特徴を持つという、慎重な証拠がある。
顔面ビデオrPPGモデルのトレーニングは、身体下最適な別の部位からの接触測定を用いて行われているか?
最近リリースされた,手と顔の同時接触PSGとビデオ計測によるユニークなデータセットを用いて,この問題に対する正確かつ定量的な回答を提供する。
指先からのPGG信号を用いた場合, 予測波形と基底真理PSG信号間の平均2乗誤差は, 指先からのPGG信号を用いた場合に比べて最大40%低くなる。
また,前頭PSG信号のトレーニングにおいて,ニューラルネットワークが基底真理PSG信号のモルフォロジーをより良く予測できることを定性的に示す。
しかしながら、額PPGからトレーニングされたモデルはより忠実な波形を生成するが、指PPGからトレーニングされたモデルは依然として支配的な周波数(つまり心拍数)をよく学習する。
関連論文リスト
- Summit Vitals: Multi-Camera and Multi-Signal Biosensing at High Altitudes [22.23531900474421]
ビデオ光胸腺撮影は、生理学的信号の非侵襲的かつ便利な測定方法である。
このデータセットは、ビデオのバイタル推定アルゴリズムを検証し、異なる位置からビデオを取り出すように設計されている。
以上の結果から,PSGや血液酸素などの複数の指標の同時トレーニングがSpO2推定におけるMAEを17.8%減少させる可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-28T03:36:16Z) - Full-Body Cardiovascular Sensing with Remote Photoplethysmography [4.123458880886283]
リモート光胸腺撮影(r)では、反射光の小さなゆらぎを検出して、カメラからの血流の変化を非接触でモニタリングすることができる。
腕,足,手などの非顔の身体領域からrの実現可能性について検討した。
論文 参考訳(メタデータ) (2023-03-16T20:37:07Z) - Contrast-Phys: Unsupervised Video-based Remote Physiological Measurement
via Spatiotemporal Contrast [17.691683039742323]
遠隔胸部CT(remote Photoplethysmography、r)とも呼ばれる、血液量変化信号を測定するためのビデオベースのリモート生理計測フェイスビデオ
我々は3DCNNモデルを用いて、異なる場所で各ビデオから複数のリズム信号を生成し、同じビデオからのr信号がまとめられ、異なるビデオからのr信号が押し出されながら、対照的な損失でモデルを訓練する。
論文 参考訳(メタデータ) (2022-08-08T19:30:57Z) - Identifying Rhythmic Patterns for Face Forgery Detection and
Categorization [46.21354355137544]
本研究では, PPG信号に対する空間時間フィルタリングネットワーク (STFNet) と, PPG信号の制約と相互作用のための空間時間インタラクションネットワーク (STINet) からなる顔偽造検出と分類のためのフレームワークを提案する。
フォージェリーメソッドの生成に関する知見を得て,フレームワークの性能を高めるために,イントラソースとイントラソースのブレンディングを提案する。
論文 参考訳(メタデータ) (2022-07-04T04:57:06Z) - PhysFormer: Facial Video-based Physiological Measurement with Temporal
Difference Transformer [55.936527926778695]
近年のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙なrの手がかりのマイニングに重点を置いている。
本稿では,エンドツーエンドのビデオトランスをベースとしたアーキテクチャであるPhysFormerを提案する。
論文 参考訳(メタデータ) (2021-11-23T18:57:11Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - Motion Artifact Reduction In Photoplethysmography For Reliable Signal
Selection [5.264561559435017]
光胸腺造影法(英: Photoplethysmography, PPG)は、人体の重要な兆候を抽出する非侵襲的、経済的手法である。
信号の品質を損なうような動きに敏感である。
日々の生活活動(ADL)を行いながら現実的なPSG信号を収集し,実践的な信号聴取・分析手法を開発することは重要である。
論文 参考訳(メタデータ) (2021-09-06T21:53:56Z) - Assessment of deep learning based blood pressure prediction from PPG and
rPPG signals [2.624902795082451]
本研究では, PPG と r に基づく BP 予測誤差を基礎データ分布に関して解析する。
確立されたニューラルネットワーク(NN)アーキテクチャを訓練し、連続的なPPG信号から引き出された入力セグメントの適切なパラメータ化を導き出します。
次に、このパラメータ化をより大きなPPGデータセットに適用し、NNを訓練してBPを予測する。
第3に,r-based bp 予測のための nns のトレーニングに転送学習を用いる。
得られたパフォーマンスはPPGのみのケースに似ています。
論文 参考訳(メタデータ) (2021-04-15T15:56:58Z) - TransRPPG: Remote Photoplethysmography Transformer for 3D Mask Face
Presentation Attack Detection [53.98866801690342]
3次元マスク提示攻撃検出(PAD)は、3次元マスク攻撃から顔認識システムを保護する上で重要な役割を担っている。
ライブ本質表現を効率的に学習するための純粋なrトランス(TransR)フレームワークを提案する。
当社のTransRは軽量で効率的(547Kパラメータと763MOPのみ)で、モバイルレベルのアプリケーションに期待できる。
論文 参考訳(メタデータ) (2021-04-15T12:33:13Z) - Assessing Graph-based Deep Learning Models for Predicting Flash Point [52.931492216239995]
グラフベースのディープラーニング(GBDL)モデルは初めてフラッシュポイントを予測するために実装された。
MPNNの平均R2と平均絶対誤差(MAE)は、それぞれ2.3%低、2.0K高である。
論文 参考訳(メタデータ) (2020-02-26T06:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。