論文の概要: Non-Contact NIR PPG Sensing through Large Sequence Signal Regression
- arxiv url: http://arxiv.org/abs/2311.11757v1
- Date: Mon, 20 Nov 2023 13:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 18:53:22.580016
- Title: Non-Contact NIR PPG Sensing through Large Sequence Signal Regression
- Title(参考訳): 大規模シーケンス信号回帰による非接触NIR PPGセンシング
- Authors: Timothy Hanley, Dara Golden, Robyn Maxwell, Ashkan Parsi, Joseph
Lemley
- Abstract要約: 非接触センシング(non-Contact sensor)は、自動車の運転監視から医療の患者監視まで、多くの業界で応用されている新興技術である。
現在最先端のRGBビデオに焦点が当てられているが、これは様々な/ノイズの多い光条件で苦戦しており、暗闇ではほとんど不可能だ。しかし、近赤外線(NIR)ビデオは、これらの制約に苦しむことはない。
本稿では,NIRフレームのシーケンスから光胸腺造影(NIR)信号を取り出すために,代替のConvolution Attention Network(CAN)アーキテクチャの有効性を実証することを目的とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-Contact sensing is an emerging technology with applications across many
industries from driver monitoring in vehicles to patient monitoring in
healthcare. Current state-of-the-art implementations focus on RGB video, but
this struggles in varying/noisy light conditions and is almost completely
unfeasible in the dark. Near Infra-Red (NIR) video, however, does not suffer
from these constraints. This paper aims to demonstrate the effectiveness of an
alternative Convolution Attention Network (CAN) architecture, to regress
photoplethysmography (PPG) signal from a sequence of NIR frames. A combination
of two publicly available datasets, which is split into train and test sets, is
used for training the CAN. This combined dataset is augmented to reduce
overfitting to the 'normal' 60 - 80 bpm heart rate range by providing the full
range of heart rates along with corresponding videos for each subject. This
CAN, when implemented over video cropped to the subject's head, achieved a Mean
Average Error (MAE) of just 0.99 bpm, proving its effectiveness on NIR video
and the architecture's feasibility to regress an accurate signal output.
- Abstract(参考訳): 非接触センシングは、自動車の運転監視から医療の患者監視まで、多くの業界で応用されている新興技術である。
現在の最先端の実装はrgbビデオに重点を置いているが、これは様々な光とノイズの条件で苦労しており、暗闇ではほとんど実現不可能である。
しかし、近赤外線(NIR)ビデオはこれらの制約に悩まされない。
本稿では,NIR フレームのシーケンスから光胸腺造影 (PPG) 信号を取得するための代替 Convolution Attention Network (CAN) アーキテクチャの有効性を示す。
トレインとテストセットに分割された2つの公開データセットの組み合わせは、CANのトレーニングに使用される。
この複合データセットは、各被験者に対応するビデオと共に心拍数の全範囲を提供することにより、'通常の'60から80bpm心拍数の範囲へのオーバーフィットを減らすために拡張されます。
このCANは、被写体の頭部にトリミングされたビデオに実装されると、平均誤差(MAE)がわずか0.99bpmに達し、NIRビデオにおける効果と正確な信号出力を抑えることが可能であることを証明した。
関連論文リスト
- SiNC+: Adaptive Camera-Based Vitals with Unsupervised Learning of Periodic Signals [6.458510829614774]
信号回帰のための非競合型教師なし学習フレームワークを初めて提示する。
正常な生理的帯域内におけるスパースパワースペクトルの促進と,周期的な信号の学習にはパワースペクトルのバッチによるばらつきが十分であることがわかった。
論文 参考訳(メタデータ) (2024-04-20T19:17:40Z) - Temporal Shift -- Multi-Objective Loss Function for Improved Anomaly
Fall Detection [3.813649699234981]
逐次フレームのウィンドウ内における将来のフレームと再構成フレームの両方を予測することを目的とした,Temporal Shiftと呼ばれる多目的損失関数を提案する。
異なるモデル間での大幅な改善により、このアプローチは広く採用され、フォール検出以外の他の設定での異常検出機能を改善する可能性がある。
論文 参考訳(メタデータ) (2023-11-06T04:29:12Z) - Unsupervised Denoising for Signal-Dependent and Row-Correlated Imaging Noise [54.0185721303932]
本稿では,行関連の画像ノイズを処理できる,教師なしのディープラーニングベースデノイザについて紹介する。
提案手法では,特殊設計の自己回帰デコーダを備えた変分オートエンコーダを用いる。
本手法では,事前学習した雑音モデルを必要としないため,雑音のないデータを用いてスクラッチから訓練することができる。
論文 参考訳(メタデータ) (2023-10-11T20:48:20Z) - Contrast-Phys+: Unsupervised and Weakly-supervised Video-based Remote
Physiological Measurement via Spatiotemporal Contrast [22.742875409103164]
教師なし設定と教師なし設定の両方でトレーニングできるContrast-Phys+を提案する。
我々は3DCNNモデルを用いて複数のリズム信号を生成し、rの事前知識を対照的な損失関数に組み込む。
コントラスト-Phys+は、部分的に利用可能あるいは不一致のGT信号を使用する場合でも、最先端の教師付き手法より優れている。
論文 参考訳(メタデータ) (2023-09-13T12:50:21Z) - Progressive Fourier Neural Representation for Sequential Video
Compilation [75.43041679717376]
連続学習によって動機づけられたこの研究は、シーケンシャルエンコーディングセッションを通じて、複数の複雑なビデオデータに対して、ニューラル暗黙表現を蓄積し、転送する方法を研究する。
本稿では,FFNR(Progressive Fourier Neural Representation)という,FFNR(Progressive Fourier Neural Representation)という,FFNR(Progressive Fourier Neural Representation)という手法を提案する。
我々は,UVG8/17とDAVIS50のビデオシーケンスベンチマークでPFNR法を検証し,強力な連続学習ベースラインよりも優れた性能向上を実現した。
論文 参考訳(メタデータ) (2023-06-20T06:02:19Z) - Non-Contrastive Unsupervised Learning of Physiological Signals from
Video [4.8327232174895745]
ラベル付きビデオデータから解放される信号回帰を非コントラスト非教師付き学習フレームワークを提案する。
周期性と有限帯域幅の仮定は最小限であり,本手法では非競合ビデオから直接血液体積パルスを検出することができる。
論文 参考訳(メタデータ) (2023-03-14T14:34:51Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - Learning for Video Compression with Recurrent Auto-Encoder and Recurrent
Probability Model [164.7489982837475]
本稿では、リカレントオートエンコーダ(RAE)とリカレント確率モデル(RPM)を用いたリカレントラーニングビデオ圧縮(RLVC)手法を提案する。
RAEは、ビデオフレーム間の時間的相関を利用するために、エンコーダとデコーダの両方で繰り返しセルを使用する。
提案手法は,PSNRとMS-SSIMの両方の観点から,最先端の学習ビデオ圧縮性能を実現する。
論文 参考訳(メタデータ) (2020-06-24T08:46:33Z) - Infrared and 3D skeleton feature fusion for RGB-D action recognition [0.30458514384586394]
本稿では,スケルトンと赤外線データを組み合わせたモジュールネットワークを提案する。
2D畳み込みネットワーク(CNN)は、骨格データから特徴を抽出するポーズモジュールとして使用される。
3D CNNは、ビデオから視覚的手がかりを抽出する赤外線モジュールとして使用される。
論文 参考訳(メタデータ) (2020-02-28T17:42:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。