論文の概要: VitalLens: Take A Vital Selfie
- arxiv url: http://arxiv.org/abs/2312.06892v3
- Date: Wed, 21 Feb 2024 16:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 19:39:40.135241
- Title: VitalLens: Take A Vital Selfie
- Title(参考訳): VitalLens:ライブ自撮り
- Authors: Philipp V. Rouast
- Abstract要約: VitalLensは、自撮りビデオからバイタルサインをリアルタイムで推定するアプリだ。
それは、多様なビデオと生理学的センサーデータのデータセットに基づいて訓練されたコンピュータビジョンモデルを使用する。
平均絶対誤差は心拍数推定では0.71 bpm、呼吸速度推定では0.76 bpmである。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This report introduces VitalLens, an app that estimates vital signs such as
heart rate and respiration rate from selfie video in real time. VitalLens uses
a computer vision model trained on a diverse dataset of video and physiological
sensor data. We benchmark performance on several diverse datasets, including
VV-Medium, which consists of 289 unique participants. VitalLens outperforms
several existing methods including POS and MTTS-CAN on all datasets while
maintaining a fast inference speed. On VV-Medium, VitalLens achieves mean
absolute errors of 0.71 bpm for heart rate estimation, and 0.76 bpm for
respiratory rate estimation.
- Abstract(参考訳): VitalLensは、自撮りビデオから心拍数や呼吸速度などの重要な兆候をリアルタイムで推定するアプリだ。
VitalLensは、ビデオと生理学的センサーデータの多様なデータセットに基づいてトレーニングされたコンピュータビジョンモデルを使用する。
289個の独特な参加者からなるvv-mediumを含む、さまざまなデータセットのパフォーマンスベンチマークを行った。
vitallensは、高速な推論速度を維持しながら、すべてのデータセットでposやmts-canを含む既存のメソッドを上回っている。
vv-medium では、vitalens は心拍数推定で 0.71 bpm、呼吸率推定で 0.76 bpm の平均絶対誤差を達成している。
関連論文リスト
- A Conditional Flow Variational Autoencoder for Controllable Synthesis of
Virtual Populations of Anatomy [76.20367415712867]
本稿では,正規化フローを用いた条件付き変分オートエンコーダ(cVAE)を提案する。
2360例の心左心室データを用いた条件流VAEの性能について検討した。
論文 参考訳(メタデータ) (2023-06-26T13:23:52Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - ForDigitStress: A multi-modal stress dataset employing a digital job
interview scenario [48.781127275906435]
本稿では,デジタル面接を利用してストレスを誘発するマルチモーダルストレスデータセットを提案する。
このデータセットは、オーディオ、ビデオ、生理情報を含む40人の参加者のマルチモーダルデータを提供する。
ベースラインを確立するために、5つの異なる機械学習分類器が訓練され、評価されている。
論文 参考訳(メタデータ) (2023-03-14T09:40:37Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Real-Time Monitoring of User Stress, Heart Rate and Heart Rate
Variability on Mobile Devices [36.16114600037677]
Beam AI SDKは、自撮りカメラを通じてリアルタイムでユーザーのストレスを監視することができる。
本技術は,UBFCデータセット,MMSE-HRデータセット,ビームAIの内部データに基づいて評価する。
論文 参考訳(メタデータ) (2022-10-04T17:58:37Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - Human Activity Recognition on wrist-worn accelerometers using
self-supervised neural networks [0.0]
日常生活活動の指標 (ADL) は, 健康の指標として重要であるが, 生体内測定は困難である。
本稿では,加速度センサデータの頑健な表現をデバイスや対象に対して一般化するための自己教師付き学習パラダイムを提案する。
また,連続した実生活データに対して,有意な活動のセグメントを同定し,HARの精度を高めるセグメンテーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T23:35:20Z) - A Deep Learning Based Multitask Network for Respiration Rate Estimation
-- A Practical Perspective [1.290382979353427]
本稿では,心電図および加速度計信号から瞬時および平均呼吸速度を推定するための,ディープラーニング(DL)に基づくマルチタスクアーキテクチャを提案する。
提案モデルでは, 動作の異なる個々のモダリティよりも, 全体的な精度が向上し, より良好な結果が得られた。
論文 参考訳(メタデータ) (2021-12-13T11:33:42Z) - Do You Live a Healthy Life? Analyzing Lifestyle by Visual Life Logging [5.377783209681779]
健康なライフスタイルは、健康と幸福を高める鍵であり、生活の質や病気の予防にかなりの影響を及ぼす。
現在のライフログ/エゴセントリックデータセットは、ライフスタイル分析には適していない。
生活分析のためのビジュアルライフログデータセット(VLDLA)を構築した。
論文 参考訳(メタデータ) (2020-11-24T14:20:12Z) - Heart Rate Estimation from Face Videos for Student Assessment:
Experiments on edBB [24.666654058140836]
本研究は、リモート光胸腺撮影技術を用いて心拍数推定を行うためのRGBおよび近赤外ビデオシーケンスに焦点を当てた。
実験には、25人の異なる学生による行動的および生理的データが含まれており、eラーニングに関連するタスクの収集が完了している。
提案した顔の心拍数推定手法は,スマートウォッチが提供する心拍数と比較し,将来のeラーニングアプリケーションへの展開について非常に有望な結果を得た。
論文 参考訳(メタデータ) (2020-06-01T10:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。