論文の概要: LFPS-Net: a lightweight fast pulse simulation network for BVP estimation
- arxiv url: http://arxiv.org/abs/2206.12558v1
- Date: Sat, 25 Jun 2022 05:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-03 07:42:16.953985
- Title: LFPS-Net: a lightweight fast pulse simulation network for BVP estimation
- Title(参考訳): BVP推定のための軽量高速パルスシミュレーションネットワークLFPS-Net
- Authors: Jialiang Zhuang, Yun Zhang, Yuheng Chen, Xiujuan Zheng
- Abstract要約: リモート光胸腺撮影に基づく心拍推定は、健康モニタリングや疲労検出など、いくつかの特定のシナリオにおいて重要な役割を果たす。
既存の方法は、30秒の顔ビデオの最終結果として、複数の重なり合うビデオクリップの予測HRの平均を取ることにコミットする。
本稿では,高速パルスシミュレーションネットワーク(LFPS-Net)を提案する。
- 参考スコア(独自算出の注目度): 4.631302854901082
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Heart rate estimation based on remote photoplethysmography plays an important
role in several specific scenarios, such as health monitoring and fatigue
detection. Existing well-established methods are committed to taking the
average of the predicted HRs of multiple overlapping video clips as the final
results for the 30-second facial video. Although these methods with hundreds of
layers and thousands of channels are highly accurate and robust, they require
enormous computational budget and a 30-second wait time, which greatly limits
the application of the algorithms to scale. Under these cicumstacnces, We
propose a lightweight fast pulse simulation network (LFPS-Net), pursuing the
best accuracy within a very limited computational and time budget, focusing on
common mobile platforms, such as smart phones. In order to suppress the noise
component and get stable pulse in a short time, we design a multi-frequency
modal signal fusion mechanism, which exploits the theory of time-frequency
domain analysis to separate multi-modal information from complex signals. It
helps proceeding network learn the effective fetures more easily without adding
any parameter. In addition, we design a oversampling training strategy to solve
the problem caused by the unbalanced distribution of dataset. For the 30-second
facial videos, our proposed method achieves the best results on most of the
evaluation metrics for estimating heart rate or heart rate variability compared
to the best available papers. The proposed method can still obtain very
competitive results by using a short-time (~15-second) facail video.
- Abstract(参考訳): リモートフォトプレチモグラフィに基づく心拍数の推定は、健康モニタリングや疲労検出など、いくつかの特定のシナリオにおいて重要な役割を果たす。
既存の確立された方法は、30秒の顔ビデオの最終結果として、複数の重なり合うビデオクリップの予測HRの平均を取ることにコミットする。
数百の層と数千のチャネルを持つこれらの手法は非常に正確で堅牢であるが、膨大な計算予算と30秒の待ち時間が必要であり、スケールするアルゴリズムの適用を大幅に制限する。
このような状況下で,我々は,スマートフォンなどの一般的なモバイルプラットフォームに焦点をあて,非常に限られた計算・時間予算内で最高の精度を追求する軽量高速パルスシミュレーションネットワーク(LFPS-Net)を提案する。
ノイズ成分の抑制とパルスの安定化を短時間で行うため,時間周波数領域解析の理論を利用して複雑な信号から多モード情報を分離する多周波変調信号融合機構を設計する。
これは、パラメータを追加することなく、ネットワークが効果的なフィーチャーをより簡単に学習するのに役立つ。
さらに,データセットの不均衡分布に起因する問題を解決するため,オーバーサンプリングトレーニング戦略を設計する。
提案手法は,30秒の顔画像に対して,最も有効な論文と比較して,心拍数や心拍変動を推定するための評価指標の最もよい結果を得る。
提案手法は短い時間(約15秒)のfacailビデオを用いて非常に競争的な結果を得ることができる。
関連論文リスト
- Batch-FPM: Random batch-update multi-parameter physical Fourier ptychography neural network [0.933064392528114]
Fourier Ptychographic Microscopy (FPM) は、大規模視野での高解像度イメージングを可能にする計算イメージング技術である。
本稿では,バッチ更新勾配勾配(SGD)最適化戦略を用いた物理ニューラルネットワークに基づく高速かつ堅牢なFPM再構成手法を提案する。
本手法は,低露光時間暗視野画像などの低信号対雑音比データセットに対しても,コンバージェンス性能が向上する。
論文 参考訳(メタデータ) (2024-08-25T09:24:18Z) - Match and Locate: low-frequency monocular odometry based on deep feature
matching [0.65268245109828]
本稿では,1台のカメラしか必要としないロボットオドメトリーの新たなアプローチを提案する。
アプローチは、深い特徴マッチングモデルを用いて、ビデオストリームの連続フレーム間の画像特徴のマッチングに基づいている。
本研究では,AISG-SLAビジュアルローカライゼーションチャレンジにおける手法の性能評価を行い,計算効率が高く,実装が容易であるにもかかわらず,競合する結果が得られた。
論文 参考訳(メタデータ) (2023-11-16T17:32:58Z) - Time Scale Network: A Shallow Neural Network For Time Series Data [18.46091267922322]
時系列データは、しばしば複数の時間スケールで情報で構成されている。
この情報を捉えるためのディープラーニング戦略は存在するが、ネットワークを大きくし、より多くのデータを必要とし、計算を要求されやすく、解釈が難しいものが多い。
本稿では,離散ウェーブレット変換における翻訳と拡張シーケンスと,従来の畳み込みニューラルネットワークとバックプロパゲーションを組み合わせた,最小かつ計算効率のタイムスケールネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-10T16:39:55Z) - Fast Event-based Optical Flow Estimation by Triplet Matching [13.298845944779108]
イベントカメラは、従来のカメラ(低レイテンシ、高ダイナミックレンジ、低電力など)よりも利点がある。
イベントのパケットを扱う光フロー推定法は、正確性のために速度をトレードオフする。
本稿では,三重項マッチングに基づく新しい光フロー推定手法を提案する。
論文 参考訳(メタデータ) (2022-12-23T09:12:16Z) - Taking ROCKET on an Efficiency Mission: Multivariate Time Series
Classification with LightWaveS [3.5786621294068373]
正確な多変量時系列分類のためのフレームワークLightWaveSを提案する。
ROCKETの機能はわずか2.5%しか採用していないが、最近のディープラーニングモデルに匹敵する精度を実現している。
エッジデバイス上での推論において, ROCKETと比較して9倍から65倍のスピードアップを実現していることを示す。
論文 参考訳(メタデータ) (2022-04-04T10:52:20Z) - Deep Impulse Responses: Estimating and Parameterizing Filters with Deep
Networks [76.830358429947]
高雑音および地中設定におけるインパルス応答推定は難しい問題である。
本稿では,ニューラル表現学習の最近の進歩に基づいて,インパルス応答のパラメータ化と推定を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T18:57:23Z) - Self-Supervised Learning of Perceptually Optimized Block Motion
Estimates for Video Compression [50.48504867843605]
多段階畳み込みニューラルネットワークを用いた探索自由ブロック運動推定フレームワークを提案する。
動作補償フレームの知覚品質を最適化するために,マルチスケール構造類似度(MS-SSIM)損失関数をデプロイする。
論文 参考訳(メタデータ) (2021-10-05T03:38:43Z) - Sample and Computation Redistribution for Efficient Face Detection [137.19388513633484]
トレーニングデータサンプリングと計算分布戦略は、効率的で正確な顔検出の鍵です。
scrfdf34は、最高の競合製品であるTinaFaceを3.86%(ハードセットでのAP)で上回り、GPU上でVGA解像度画像でmph3$times$より高速です。
論文 参考訳(メタデータ) (2021-05-10T23:51:14Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。