論文の概要: Seeing Red: PPG Biometrics Using Smartphone Cameras
- arxiv url: http://arxiv.org/abs/2004.07088v1
- Date: Wed, 15 Apr 2020 13:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 03:39:42.539186
- Title: Seeing Red: PPG Biometrics Using Smartphone Cameras
- Title(参考訳): スマートフォンカメラを用いたPSGバイオメトリックス
- Authors: Giulio Lovisotto, Henry Turner, Simon Eberz and Ivan Martinovic
- Abstract要約: スマートフォンカメラを用いた光胸部画像認証システムを提案する。
PPG信号は、ユーザーがカメラレンズの上に指を置いているときに、カメラからビデオを記録することで得られる。
- 参考スコア(独自算出の注目度): 20.911850979477236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a system that enables photoplethysmogram
(PPG)-based authentication by using a smartphone camera. PPG signals are
obtained by recording a video from the camera as users are resting their finger
on top of the camera lens. The signals can be extracted based on subtle changes
in the video that are due to changes in the light reflection properties of the
skin as the blood flows through the finger. We collect a dataset of PPG
measurements from a set of 15 users over the course of 6-11 sessions per user
using an iPhone X for the measurements. We design an authentication pipeline
that leverages the uniqueness of each individual's cardiovascular system,
identifying a set of distinctive features from each heartbeat. We conduct a set
of experiments to evaluate the recognition performance of the PPG biometric
trait, including cross-session scenarios which have been disregarded in
previous work. We found that when aggregating sufficient samples for the
decision we achieve an EER as low as 8%, but that the performance greatly
decreases in the cross-session scenario, with an average EER of 20%.
- Abstract(参考訳): 本稿では,スマートフォンカメラを用いた光ポジソグラム(PPG)による認証を実現するシステムを提案する。
PPG信号は、ユーザーがカメラレンズの上に指を置いているときに、カメラからビデオを記録することで得られる。
この信号は、指を通して血液が流れると皮膚の光反射特性が変化することによるビデオの微妙な変化に基づいて抽出される。
我々は,iPhone Xを用いて,ユーザ毎の6~11セッションで15人のユーザからPSG測定値のデータセットを収集した。
各心血管系の特異性を活かした認証パイプラインを設計し、各心拍から特徴的な特徴のセットを同定する。
我々は,これまでの研究で無視されたクロスセッションシナリオを含む,ppgバイオメトリック特性の認識性能を評価するための一連の実験を行う。
判定に十分なサンプルを集約すると,EERは8%まで低下するが,クロスセッションシナリオでは性能が大幅に低下し,平均20%となることがわかった。
関連論文リスト
- Facial Kinship Verification from remote photoplethysmography [8.212664345436092]
Kinship Verification (FKV) は、2人の被験者が人間の顔に基づいて親族関係を持つかどうかを自動的に判定することを目的としている。
従来のFKVは、スプーフ攻撃に脆弱であり、プライバシーの問題を引き起こすため、課題に直面している。
本稿では,FKVを生体信号で探索し,リモート光合成反射に着目した。
論文 参考訳(メタデータ) (2023-09-14T19:33:11Z) - Full-Body Cardiovascular Sensing with Remote Photoplethysmography [4.123458880886283]
リモート光胸腺撮影(r)では、反射光の小さなゆらぎを検出して、カメラからの血流の変化を非接触でモニタリングすることができる。
腕,足,手などの非顔の身体領域からrの実現可能性について検討した。
論文 参考訳(メタデータ) (2023-03-16T20:37:07Z) - Facial Soft Biometrics for Recognition in the Wild: Recent Works,
Annotation, and COTS Evaluation [63.05890836038913]
制約のないシナリオにおける人物認識システムを強化するために,ソフトバイオメトリックスが果たす役割について検討する。
1) ソフトバイオメトリックスのマニュアル推定と,2) 市販オフザシェルフシステムによる自動推定の2つの仮定を考察する。
深層学習に基づく2つの最先端顔認識システムを用いた軟式生体計測実験を行った。
論文 参考訳(メタデータ) (2022-10-24T11:29:57Z) - Compact multi-scale periocular recognition using SAFE features [63.48764893706088]
特徴拡張(SAFE)記述子による対称性評価に基づく眼周囲認識のための新しい手法を提案する。
我々は、スクレラ中心を特徴抽出の単一キーポイントとして使用し、眼のこの点に集中するオブジェクトのようなアイデンティティ特性を強調します。
論文 参考訳(メタデータ) (2022-10-18T11:46:38Z) - ReViSe: Remote Vital Signs Measurement Using Smartphone Camera [0.0]
リモートフォトプラチスモグラフィー(remote Photoplethysmography、rVi)は、バイオメトリックデータを集めるための高速で効果的で安価で便利な方法である。
本稿では,スマートフォンカメラで捉えたユーザの顔のゆがみに基づいて,人々のバイタルサインを測定するためのエンドツーエンドフレームワークを提案する。
ディープラーニングに基づくニューラルネットワークモデルを用いて,顔のランドマークをリアルタイムで抽出する。
論文 参考訳(メタデータ) (2022-06-13T19:20:11Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - A Comparative Study of Fingerprint Image-Quality Estimation Methods [54.84936551037727]
画質の悪い画像は、突発的で欠落した特徴をもたらし、システム全体の性能を低下させる。
本稿では,指紋画像品質評価のための既存手法について概説する。
また,指紋画像品質推定アルゴリズムの選定も行った。
論文 参考訳(メタデータ) (2021-11-14T19:53:12Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Real Time Video based Heart and Respiration Rate Monitoring [5.257115841810259]
スマートフォンカメラは心拍数(HR)と呼吸速度(RR)を測定することができる
グリーンチャネルの強度の変化は、ビデオのi信号によって測定できる。
本研究の目的は、個人の顔の映像を用いて心拍数と呼吸率を抽出する方法を提供することである。
論文 参考訳(メタデータ) (2021-06-04T19:03:21Z) - One-shot Representational Learning for Joint Biometric and Device
Authentication [14.646962064352577]
本稿では,1つの生体画像から,個人を識別すると同時に,デバイス認識を行う手法を提案する。
このような共同認識スキームは、セキュリティとプライバシーを高めるためのスマートフォンなどのデバイスで有用です。
論文 参考訳(メタデータ) (2021-01-02T22:29:29Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。