論文の概要: FacePhys: State of the Heart Learning
- arxiv url: http://arxiv.org/abs/2512.06275v1
- Date: Sat, 06 Dec 2025 03:54:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.280157
- Title: FacePhys: State of the Heart Learning
- Title(参考訳): FacePhys: 心臓学習の現状
- Authors: Kegang Wang, Jiankai Tang, Yuntao Wang, Xin Liu, Yuxuan Fan, Jiatong Ji, Yuanchun Shi, Daniel McDuff,
- Abstract要約: FacePhysは、最小の計算オーバーヘッドを維持しながら、ビデオフレーム間の微妙な周期変化をキャプチャする。
我々のソリューションは、メモリフットプリントが3.6MB、フレームあたりのレイテンシが9.46msのリアルタイム推論を可能にする。
これらの結果は、実用的なデプロイメントにおける信頼性の高いリアルタイムパフォーマンスに変換される。
- 参考スコア(独自算出の注目度): 29.799216245524466
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vital sign measurement using cameras presents opportunities for comfortable, ubiquitous health monitoring. Remote photoplethysmography (rPPG), a foundational technology, enables cardiac measurement through minute changes in light reflected from the skin. However, practical deployment is limited by the computational constraints of performing analysis on front-end devices and the accuracy degradation of transmitting data through compressive channels that reduce signal quality. We propose a memory efficient rPPG algorithm - \emph{FacePhys} - built on temporal-spatial state space duality, which resolves the trilemma of model scalability, cross-dataset generalization, and real-time operation. Leveraging a transferable heart state, FacePhys captures subtle periodic variations across video frames while maintaining a minimal computational overhead, enabling training on extended video sequences and supporting low-latency inference. FacePhys establishes a new state-of-the-art, with a substantial 49\% reduction in error. Our solution enables real-time inference with a memory footprint of 3.6 MB and per-frame latency of 9.46 ms -- surpassing existing methods by 83\% to 99\%. These results translate into reliable real-time performance in practical deployments, and a live demo is available at https://www.facephys.com/.
- Abstract(参考訳): カメラを用いた生体標識測定は、快適でユビキタスな健康モニタリングの機会を提供する。
基礎技術であるremote Photoplethysmography (rPPG)は、皮膚から反射される光の微小な変化を通じて心臓の計測を可能にする。
しかし、フロントエンドデバイスで解析を行う際の計算的制約や、信号品質を低下させる圧縮チャネルによるデータ転送の精度低下により、実際の展開は制限されている。
本稿では,時間空間空間双対性に基づくメモリ効率の高い rPPG アルゴリズムである \emph{FacePhys} を提案する。
転送可能な心臓状態を利用することで、FacePhysは最小の計算オーバーヘッドを維持しながら、ビデオフレーム間の微妙な周期的変動をキャプチャし、拡張されたビデオシーケンスのトレーニングを可能にし、低レイテンシ推論をサポートする。
FacePhysは、エラーを49%削減した新しい最先端技術を確立している。
私たちのソリューションでは、メモリフットプリントが3.6MB、フレーム毎のレイテンシが9.46msのリアルタイム推論を可能にします。
これらの結果は、実用的なデプロイメントにおける信頼性の高いリアルタイムパフォーマンスに変換され、ライブデモがhttps://www.facephys.com/.com/で公開されている。
関連論文リスト
- Editing Physiological Signals in Videos Using Latent Representations [1.1688456044134343]
心拍数(Heart Rate、HR)は、個人の健康をモニターする非接触手段である。
顔ビデオに重要な信号があることは、プライバシーの懸念を生じさせる。
映像中の生理的信号の編集を視覚的忠実性を維持しながら行うことを提案する。
リアルビデオにおける生体信号の匿名化や,バイタルサイン付きリアルビデオなどの応用には,制御可能なHR編集が有用である。
論文 参考訳(メタデータ) (2025-09-29T18:02:50Z) - PHASE-Net: Physics-Grounded Harmonic Attention System for Efficient Remote Photoplethysmography Measurement [63.007237197267834]
既存のディープラーニング手法は、主に生理学的モニタリングであり、理論的な堅牢性を欠いている。
本研究では,Navier-Stokes方程式のヘモダイナミックスから導かれる物理インフォームド r パラダイムを提案し,パルス信号が2次系に従うことを示す。
これは、時間的円錐ネットワーク(TCN)を使用する理論的正当性を提供する。
Phase-Netは高い効率で最先端のパフォーマンスを実現し、理論上は基礎的でデプロイ可能な r ソリューションを提供する。
論文 参考訳(メタデータ) (2025-09-29T14:36:45Z) - Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - Memory-efficient Low-latency Remote Photoplethysmography through Temporal-Spatial State Space Duality [15.714133129768323]
ME-rは時間空間空間双対性に基づくメモリ効率のアルゴリズムである。
最小の計算オーバーヘッドを維持しながら、顔フレーム間の微妙な周期的な変動を効率的に捉える。
我々のソリューションは3.6MBのメモリ使用率と9.46msのレイテンシでリアルタイムの推論を可能にする。
論文 参考訳(メタデータ) (2025-04-02T14:34:04Z) - FacialPulse: An Efficient RNN-based Depression Detection via Temporal Facial Landmarks [21.076600109388394]
うつ病 (Depression) は、個人の生活と幸福に著しく影響を及ぼす精神疾患である。
近年,表情特徴を活用して自動抑うつ検出を行うエンド・ツー・エンドのディープラーニング手法が多数存在する。
本稿では,抑うつを高精度かつ高速に認識するFacialPulseという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-07T01:50:34Z) - PhysFormer++: Facial Video-based Physiological Measurement with SlowFast
Temporal Difference Transformer [76.40106756572644]
最近のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙な手がかりのマイニングに重点を置いている。
本稿では,PhysFormerとPhys++++をベースとした2つのエンドツーエンドビデオ変換器を提案する。
4つのベンチマークデータセットで総合的な実験を行い、時間内テストとクロスデータセットテストの両方において優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-07T15:56:03Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - PhysFormer: Facial Video-based Physiological Measurement with Temporal
Difference Transformer [55.936527926778695]
近年のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙なrの手がかりのマイニングに重点を置いている。
本稿では,エンドツーエンドのビデオトランスをベースとしたアーキテクチャであるPhysFormerを提案する。
論文 参考訳(メタデータ) (2021-11-23T18:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。