論文の概要: A Hybrid Deep Learning Model for Robust Biometric Authentication from Low-Frame-Rate PPG Signals
- arxiv url: http://arxiv.org/abs/2511.04037v1
- Date: Thu, 06 Nov 2025 04:16:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.298323
- Title: A Hybrid Deep Learning Model for Robust Biometric Authentication from Low-Frame-Rate PPG Signals
- Title(参考訳): 低フレームPPG信号を用いたロバストバイオメトリック認証のためのハイブリッドディープラーニングモデル
- Authors: Arfina Rahman, Mahesh Banavar,
- Abstract要約: 光による皮膚の血流量の変化を計測する光胸腺造影(進化)信号は、最近生体認証において注目を集めている。
光胸腺信号の品質は、運動アーティファクト、照明の変化、および物体間の生理的変動によって挑戦される。
本研究では,低フレームレート指先ビデオから抽出したPSG信号に基づいて,軽量で費用対効果の高い生体認証フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.34376560669160394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photoplethysmography (PPG) signals, which measure changes in blood volume in the skin using light, have recently gained attention in biometric authentication because of their non-invasive acquisition, inherent liveness detection, and suitability for low-cost wearable devices. However, PPG signal quality is challenged by motion artifacts, illumination changes, and inter-subject physiological variability, making robust feature extraction and classification crucial. This study proposes a lightweight and cost-effective biometric authentication framework based on PPG signals extracted from low-frame-rate fingertip videos. The CFIHSR dataset, comprising PPG recordings from 46 subjects at a sampling rate of 14 Hz, is employed for evaluation. The raw PPG signals undergo a standard preprocessing pipeline involving baseline drift removal, motion artifact suppression using Principal Component Analysis (PCA), bandpass filtering, Fourier-based resampling, and amplitude normalization. To generate robust representations, each one-dimensional PPG segment is converted into a two-dimensional time-frequency scalogram via the Continuous Wavelet Transform (CWT), effectively capturing transient cardiovascular dynamics. We developed a hybrid deep learning model, termed CVT-ConvMixer-LSTM, by combining spatial features from the Convolutional Vision Transformer (CVT) and ConvMixer branches with temporal features from a Long Short-Term Memory network (LSTM). The experimental results on 46 subjects demonstrate an authentication accuracy of 98%, validating the robustness of the model to noise and variability between subjects. Due to its efficiency, scalability, and inherent liveness detection capability, the proposed system is well-suited for real-world mobile and embedded biometric security applications.
- Abstract(参考訳): 光胸腺造影(PPG)信号は、非侵襲的取得、本態性検出、低コストウェアラブルデバイスへの適合性などにより、生体認証において近年注目を集めている。
しかし, PPG信号の品質は, 運動人工物, 照明変化, 物体間の生理的変動によって問題視され, 頑健な特徴抽出と分類が重要である。
本研究では,低フレームレート指先ビデオから抽出したPSG信号に基づく,軽量で費用対効果の高い生体認証フレームワークを提案する。
CFIHSRデータセットは、46名の被験者から14HzのサンプリングレートでPPG記録を合成し、評価に利用した。
生PSG信号は、ベースラインドリフト除去、主成分分析(PCA)を用いたモーションアーティファクト抑圧、帯域通過フィルタリング、フーリエベース再サンプリング、振幅正規化を含む標準前処理パイプラインを実行する。
堅牢な表現を生成するために、各1次元PSGセグメントを連続ウェーブレット変換(CWT)を介して2次元の時間周波数カルグラムに変換し、一過性心血管動態を効果的に捉える。
本研究では,畳み込み視覚変換器(CVT)とConvMixerブランチの空間的特徴と,長短期記憶ネットワーク(LSTM)の時間的特徴を組み合わせることで,CVT-ConvMixer-LSTMと呼ばれるハイブリッドディープラーニングモデルを開発した。
46名の被験者に対する実験の結果,98%の認証精度が示され,被験者間のノイズや変動性に対するモデルの頑健さが検証された。
その効率性、スケーラビリティ、および本質的な活力検出能力のため、提案システムは実世界のモバイルおよび組み込みバイオメトリックセキュリティアプリケーションに適している。
関連論文リスト
- PhysLLM: Harnessing Large Language Models for Cross-Modal Remote Physiological Sensing [49.243031514520794]
LLM(Large Language Models)は、テキスト中心の設計のため、長距離信号の取得に優れる。
PhysLLMは最先端の精度とロバスト性を実現し、照明のバリエーションや動きのシナリオにまたがる優れた一般化を示す。
論文 参考訳(メタデータ) (2025-05-06T15:18:38Z) - Reliable Physiological Monitoring on the Wrist Using Generative Deep Learning to Address Poor Skin-Sensor Contact [14.10775902843149]
光胸腺撮影は、消費者と臨床の両方において、心血管の健康と生理的パラメータを監視するために広く採用され、非侵襲的手法である。
動的環境における運動アーティファクトの研究が盛んに行われているが、摂食条件下での肌下感覚接触は波形形態を歪め、重要な特徴の喪失や不一致を招き、知覚精度を損なう。
本研究では,接触圧歪みPPG信号を理想的な形状を持つ高忠実度波形に変換する新しいフレームワークCP-を提案する。
論文 参考訳(メタデータ) (2025-04-03T16:22:15Z) - Frequency Domain Enhanced U-Net for Low-Frequency Information-Rich Image Segmentation in Surgical and Deep-Sea Exploration Robots [34.28684917337352]
CNNと人間の視覚系における周波数帯域感度の差について検討する。
本稿では、生体視覚機構にインスパイアされたウェーブレット適応スペクトル融合(WASF)法を提案する。
我々は SAM2 のバックボーンネットワークを利用する FE-UNet モデルを開発し, セグメンテーション精度を確保するために細調整した Hiera-Large モジュールを組み込んだ。
論文 参考訳(メタデータ) (2025-02-06T07:24:34Z) - Personalised and Adjustable Interval Type-2 Fuzzy-Based PPG Quality
Assessment for the Edge [0.1433758865948252]
提案システムは,超低複雑性とリアルタイムPSG品質評価を可能にする可能性を秘めている。
提案システムは検証中の平均精度を93.72%まで向上させた。
論文 参考訳(メタデータ) (2023-09-23T19:35:00Z) - Amplitude-Independent Machine Learning for PPG through Visibility Graphs
and Transfer Learning [16.79885220470521]
Photoplethysmography (Photoplethysmography)は、光を用いた血液量の変化の測定である。
光胸腺造影信号は、身体の循環系に関する洞察を与える。
光胸腺造影信号は、心拍数や血管老化などの様々な生体機能を引き出すために用いられる。
論文 参考訳(メタデータ) (2023-05-23T13:41:52Z) - Identifying Rhythmic Patterns for Face Forgery Detection and
Categorization [46.21354355137544]
本研究では, PPG信号に対する空間時間フィルタリングネットワーク (STFNet) と, PPG信号の制約と相互作用のための空間時間インタラクションネットワーク (STINet) からなる顔偽造検出と分類のためのフレームワークを提案する。
フォージェリーメソッドの生成に関する知見を得て,フレームワークの性能を高めるために,イントラソースとイントラソースのブレンディングを提案する。
論文 参考訳(メタデータ) (2022-07-04T04:57:06Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Discriminative Singular Spectrum Classifier with Applications on
Bioacoustic Signal Recognition [67.4171845020675]
分析や分類に有用な特徴を効率的に抽出する識別機構を備えた生体音響信号分類器を提案する。
タスク指向の現在のバイオ音響認識法とは異なり、提案モデルは入力信号をベクトル部分空間に変換することに依存する。
提案法の有効性は,アヌラン,ミツバチ,蚊の3種の生物音響データを用いて検証した。
論文 参考訳(メタデータ) (2021-03-18T11:01:21Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。