論文の概要: Non-Contact Heart Rate Measurement from Deteriorated Videos
- arxiv url: http://arxiv.org/abs/2304.14789v1
- Date: Fri, 28 Apr 2023 11:58:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 14:30:32.033757
- Title: Non-Contact Heart Rate Measurement from Deteriorated Videos
- Title(参考訳): 劣化ビデオからの非接触心拍測定
- Authors: Nhi Nguyen, Le Nguyen, Constantino \'Alvarez Casado, Olli Silv\'en,
Miguel Bordallo L\'opez
- Abstract要約: リモート・フォトプレソグラフィー (Remote Photoplethysmography) は、顔の映像を分析して人間の脈波を推定するための、最先端で非接触の方法論を提供する。
本研究では,映像品質を意図的に劣化させるために画像処理を適用し,困難な条件を模倣する。
以上の結果から, これらのアーティファクトの存在下での精度の低下が明らかとなり, 修復技術の適用が提案された。
- 参考スコア(独自算出の注目度): 0.3149883354098941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remote photoplethysmography (rPPG) offers a state-of-the-art, non-contact
methodology for estimating human pulse by analyzing facial videos. Despite its
potential, rPPG methods can be susceptible to various artifacts, such as noise,
occlusions, and other obstructions caused by sunglasses, masks, or even
involuntary facial contact, such as individuals inadvertently touching their
faces. In this study, we apply image processing transformations to
intentionally degrade video quality, mimicking these challenging conditions,
and subsequently evaluate the performance of both non-learning and
learning-based rPPG methods on the deteriorated data. Our results reveal a
significant decrease in accuracy in the presence of these artifacts, prompting
us to propose the application of restoration techniques, such as denoising and
inpainting, to improve heart-rate estimation outcomes. By addressing these
challenging conditions and occlusion artifacts, our approach aims to make rPPG
methods more robust and adaptable to real-world situations. To assess the
effectiveness of our proposed methods, we undertake comprehensive experiments
on three publicly available datasets, encompassing a wide range of scenarios
and artifact types. Our findings underscore the potential to construct a robust
rPPG system by employing an optimal combination of restoration algorithms and
rPPG techniques. Moreover, our study contributes to the advancement of
privacy-conscious rPPG methodologies, thereby bolstering the overall utility
and impact of this innovative technology in the field of remote heart-rate
estimation under realistic and diverse conditions.
- Abstract(参考訳): remote photoplethysmography (rppg)は、顔の映像を分析して人間の脈拍を推定するための最先端の非接触法を提供する。
その可能性にもかかわらず、rPPG法は、ノイズ、閉塞、サングラス、マスク、さらには不随意の顔接触によって引き起こされるその他の障害、例えば、不注意に顔に触れる個人など、様々な人工物に影響を受けやすい。
本研究では,映像品質の故意な劣化に画像処理変換を適用し,これらの課題条件を模倣し,劣化したデータに対する非学習型および学習型rppg法の性能評価を行った。
以上の結果から,これらのアーティファクトの存在下での精度の低下が明らかとなり,デノナイズやインペインティングなどの修復技術の適用により,心拍数推定結果の改善が提案された。
そこで本研究では,これらの課題に対処し,実環境に適応可能なRCPG手法を提案する。
提案手法の有効性を評価するため,様々なシナリオやアーティファクトタイプを含む3つの公開データセットの総合的な実験を行った。
本研究は, 修復アルゴリズムとrPPGの最適組み合わせを用いて, 堅牢なrPPGシステムの構築の可能性を明らかにするものである。
さらに,本研究はプライバシを意識したrPPG手法の進歩に寄与し,現実的かつ多様な条件下での遠隔心拍数推定分野における,この革新的な技術の全体的な有用性と影響を高める。
関連論文リスト
- KID-PPG: Knowledge Informed Deep Learning for Extracting Heart Rate from a Smartwatch [3.329222353111594]
本稿では,適応線形フィルタリング,深層確率推論,データ拡張による知識情報の統合型ディープラーニングモデルを提案する。
以上の結果から,先行知識を深層学習モデルに組み込むことにより,心拍追跡の大幅な改善が示された。
このアプローチは、ディープラーニングモデルに既存のエキスパート知識を取り入れることで、様々なバイオメディカル応用の強化を約束する。
論文 参考訳(メタデータ) (2024-05-02T16:56:09Z) - Evaluation of Video-Based rPPG in Challenging Environments: Artifact Mitigation and Network Resilience [1.6637373649145606]
ビデオベースの遠隔光胸腺撮影(r)が,非接触型バイタルサインモニタリングのための有望な技術として登場した。
しかし、現実のシナリオにおけるバイタルサインの正確な測定はいくつかの課題に直面している。
論文 参考訳(メタデータ) (2024-05-02T12:21:51Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - Privacy-Preserving Remote Heart Rate Estimation from Facial Videos [19.442685015494316]
ディープラーニング技術は摂動攻撃に弱いため、重大なデータ漏洩が発生する可能性がある。
顔の特定領域を識別情報が少ない状態で抽出し,次にピクセルシャッフルとぼかしを行うデータ手法を提案する。
本稿では,顔認識アルゴリズムの精度を60%以上削減し,r抽出への影響を最小限に抑える。
論文 参考訳(メタデータ) (2023-06-01T20:48:04Z) - Learning from Multi-Perception Features for Real-Word Image
Super-resolution [87.71135803794519]
入力画像の複数の知覚的特徴を利用する新しいSR手法MPF-Netを提案する。
本稿では,MPFEモジュールを組み込んで,多様な知覚情報を抽出する手法を提案する。
また、モデルの学習能力を向上する対照的な正規化項(CR)も導入する。
論文 参考訳(メタデータ) (2023-05-26T07:35:49Z) - Depression Recognition using Remote Photoplethysmography from Facial
Videos [0.3867363075280544]
うつ病は個人の健康に有害な精神疾患である。
本研究は、異なるうつ状態が血液量脈(BVP)と心拍変動(HRV)に顕著な影響を及ぼすかどうかを観察するために生理的信号を分析する。
視覚情報に基づいて顔映像から直接抽出する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-09T10:23:49Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Face2PPG: An unsupervised pipeline for blood volume pulse extraction
from faces [0.456877715768796]
光合成信号は、医療、幸福、スポーツなど、多くの分野で重要な技術となっている。
本研究は,顔からPSG信号を安定かつ確実に抽出するパイプラインの集合を提案する。
論文 参考訳(メタデータ) (2022-02-08T19:06:20Z) - Unsupervised deep learning techniques for powdery mildew recognition
based on multispectral imaging [63.62764375279861]
本稿では,キュウリ葉の粉状ミドウを自動的に認識する深層学習手法を提案する。
マルチスペクトルイメージングデータに適用した教師なし深層学習技術に焦点をあてる。
本稿では, オートエンコーダアーキテクチャを用いて, 疾患検出のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-12-20T13:29:13Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Towards Fine-grained Human Pose Transfer with Detail Replenishing
Network [96.54367984986898]
ヒューマン・ポーズ・トランスファー(HPT)は、ファッションデザイン、メディア制作、オンライン広告、バーチャルリアリティーにおいて大きな可能性を秘めている研究分野である。
既存のHPT手法は、詳細不足、内容の曖昧さ、スタイルの不整合という3つの根本的な問題に悩まされることが多い。
我々は、より難易度が高く実用的なHPTセッティングを開発し、よりセマンティックな忠実さと詳細な補充に焦点を当てた、FHPT(F Fine-fine Human Pose Transfer)と呼ばれる。
論文 参考訳(メタデータ) (2020-05-26T03:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。