論文の概要: Assessment of Deep Learning-based Heart Rate Estimation using Remote
Photoplethysmography under Different Illuminations
- arxiv url: http://arxiv.org/abs/2107.13193v1
- Date: Wed, 28 Jul 2021 06:50:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 13:59:14.676612
- Title: Assessment of Deep Learning-based Heart Rate Estimation using Remote
Photoplethysmography under Different Illuminations
- Title(参考訳): 遠隔光胸腔鏡による深層学習による心拍推定法の検討
- Authors: Ze Yang, Haofei Wang, Feng Lu
- Abstract要約: 我々は、BH-rデータセットという公開データセットを提示し、12人の被験者から低、中、高の3つの照明の下でのデータを含む。
U-rデータセットとBH-rデータセットの2つの公開データセットを用いて,ディープラーニングに基づく3つの手法の性能評価を行った。
- 参考スコア(独自算出の注目度): 17.60589015651357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remote photoplethysmography (rPPG) monitors heart rate without requiring
physical contact, which allows for a wide variety of applications. Deep
learning-based rPPG have demonstrated superior performance over the traditional
approaches in controlled context. However, the lighting situation in indoor
space is typically complex, with uneven light distribution and frequent
variations in illumination. It lacks a fair comparison of different methods
under different illuminations using the same dataset. In this paper, we present
a public dataset, namely the BH-rPPG dataset, which contains data from twelve
subjects under three illuminations: low, medium, and high illumination. We also
provide the ground truth heart rate measured by an oximeter. We evaluate the
performance of three deep learning-based methods to that of four traditional
methods using two public datasets: the UBFC-rPPG dataset and the BH-rPPG
dataset. The experimental results demonstrate that traditional methods are
generally more resistant to fluctuating illuminations. We found that the
rPPGNet achieves lowest MAE among deep learning-based method under medium
illumination, whereas the CHROM achieves 1.5 beats per minute (BPM),
outperforming the rPPGNet by 60%. These findings suggest that while developing
deep learning-based heart rate estimation algorithms, illumination variation
should be taken into account. This work serves as a benchmark for rPPG
performance evaluation and it opens a pathway for future investigation into
deep learning-based rPPG under illumination variations.
- Abstract(参考訳): RPPG(Remote Photoplethysmography)は、物理的接触を必要とせずに心拍数をモニターし、様々な応用を可能にする。
深層学習に基づくrPPGは、制御された文脈における従来のアプローチよりも優れた性能を示している。
しかし、室内空間の照明状況は概して複雑であり、不均一な光分布と照明の頻繁な変化がある。
同じデータセットを使った異なる照度の下での異なる方法の公平な比較が欠けている。
本稿では,BH-rPPGデータセットという,低照度,中照度,高照度の3つの照明条件下での12人の被験者のデータを含む公開データセットを提案する。
また, オキシメータで測定した地中真実の心拍数も測定した。
UBFC-rPPGデータセットとBH-rPPGデータセットの2つの公開データセットを用いて,従来の4つの手法と比較した。
実験の結果, 従来の方法は, ゆらぎのある照度に抵抗性が高いことがわかった。
その結果、rPPGNetは、中級照明下での深層学習法の中で最低のMAEを達成するのに対し、CHROMは1.5ビート毎分(BPM)を達成し、rPPGNetを60%上回った。
これらの結果から,深層学習に基づく心拍数推定アルゴリズムの開発において,照明の変動を考慮すべきであることが示唆された。
この研究は、rPPGの性能評価のベンチマークとして機能し、照明変動下での深層学習に基づくrPPGの今後の研究の道を開く。
関連論文リスト
- Domain Generalization for Endoscopic Image Segmentation by Disentangling Style-Content Information and SuperPixel Consistency [1.4991956341367338]
本稿では,インスタンス正規化とインスタンス選択白化(ISW)を用いて,ドメインの一般化を改善する手法を提案する。
本研究では,EndoUDA BarrettのEsophagusとEndoUDA polypsの2つのデータセットに対するアプローチを評価し,その性能を3つの最先端(SOTA)手法と比較した。
論文 参考訳(メタデータ) (2024-09-19T04:10:04Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Phase Unwrapping of Color Doppler Echocardiography using Deep Learning [1.3534683694551501]
我々は,カラードプラ心エコー画像の切り離しを行うために,展開した原始双対ネットワークを開発した。
nnU-Netモデルと変換器モデルに基づく2つの最先端セグメンテーション手法との比較を行った。
以上の結果から,カラードプラ法による心エコー画像のエイリアス化を効果的に除去できることが示唆された。
論文 参考訳(メタデータ) (2023-06-23T13:23:03Z) - Promoting Generalization in Cross-Dataset Remote Photoplethysmography [1.422288795020666]
リモート・フォトプレソグラフィー(Remote Photoplethysmography)は、カメラを使って被験者の心拍数をリモートでモニタリングする手法で、手作りの技法からディープラーニングモデルへと変化してきた。
これらのモデルでは、トレーニングデータセットに固有のパルス波の特徴に対するバイアスを学習する傾向がある。
我々は、トレーニング中にモデルが見る心拍数の範囲と変動率を拡大することにより、学習バイアスを増大させ、モデル収束を改善した。
論文 参考訳(メタデータ) (2023-05-24T14:35:54Z) - Image Enhancement for Remote Photoplethysmography in a Low-Light
Environment [13.740047263242575]
遠隔心拍モニタリング技術の精度は大幅に向上した。
アルゴリズムの大幅な進歩にもかかわらず、rアルゴリズムの性能は長期的に低下する可能性がある。
ビデオ撮影における照明不足は生理的信号の品質を損なう。
提案手法は, パルス信号の信号対雑音比と精度の向上に有効である。
論文 参考訳(メタデータ) (2023-03-16T14:18:48Z) - Retinexformer: One-stage Retinex-based Transformer for Low-light Image
Enhancement [96.09255345336639]
低照度画像の高精細化のために,原理化された1段Retinex-based Framework (ORF) を定式化する。
ORFはまず照明情報を推定し、低照度画像を照らす。
我々のアルゴリズムであるRetinexformerは13のベンチマークで最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-12T16:54:08Z) - Self-Supervised Light Field Depth Estimation Using Epipolar Plane Images [13.137957601685041]
光深度推定のための自己教師付き学習フレームワークを提案する。
提案手法は,他の最先端手法と比較して,実世界のシナリオにおいて高品質な結果を得ることができる。
論文 参考訳(メタデータ) (2022-03-29T01:18:59Z) - Occlusion-aware Unsupervised Learning of Depth from 4-D Light Fields [50.435129905215284]
4次元光場処理と解析のための教師なし学習に基づく深度推定法を提案する。
光場データの特異な幾何学構造に関する基礎知識に基づいて,光場ビューのサブセット間の角度コヒーレンスを探索し,深度マップを推定する。
提案手法は,従来の手法と同等の精度で計算コストを低減した深度マップを作成できる。
論文 参考訳(メタデータ) (2021-06-06T06:19:50Z) - Lighting the Darkness in the Deep Learning Era [118.35081853500411]
低照度画像強調(LLIE)は、照明の弱い環境で撮影された画像の知覚や解釈性を改善することを目的としている。
この分野における最近の進歩は、ディープラーニングベースのソリューションが支配的です。
アルゴリズム分類から未解決の未解決問題まで,さまざまな側面をカバーする包括的な調査を行う。
論文 参考訳(メタデータ) (2021-04-21T19:12:19Z) - Depth image denoising using nuclear norm and learning graph model [107.51199787840066]
グループベース画像復元法は,パッチ間の類似性収集に有効である。
各パッチに対して、検索ウィンドウ内で最もよく似たパッチを見つけ、グループ化する。
提案手法は, 主観的, 客観的両面において, 最先端の復調法よりも優れている。
論文 参考訳(メタデータ) (2020-08-09T15:12:16Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。