論文の概要: Instantaneous Physiological Estimation using Video Transformers
- arxiv url: http://arxiv.org/abs/2202.12368v1
- Date: Thu, 24 Feb 2022 21:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 14:58:32.270470
- Title: Instantaneous Physiological Estimation using Video Transformers
- Title(参考訳): ビデオトランスを用いた瞬時生理評価
- Authors: Ambareesh Revanur, Ananyananda Dasari, Conrad S. Tucker, Laszlo A.
Jeni
- Abstract要約: 映像に基づく生理学的信号推定は、主に窓の間隔でエピソードスコアを予測することに限られている。
顔画像から瞬時心拍数と呼吸率を推定するビデオトランスフォーマーを提案する。
- 参考スコア(独自算出の注目度): 6.772249211312724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video-based physiological signal estimation has been limited primarily to
predicting episodic scores in windowed intervals. While these intermittent
values are useful, they provide an incomplete picture of patients'
physiological status and may lead to late detection of critical conditions. We
propose a video Transformer for estimating instantaneous heart rate and
respiration rate from face videos. Physiological signals are typically
confounded by alignment errors in space and time. To overcome this, we
formulated the loss in the frequency domain. We evaluated the method on the
large scale Vision-for-Vitals (V4V) benchmark. It outperformed both shallow and
deep learning based methods for instantaneous respiration rate estimation. In
the case of heart-rate estimation, it achieved an instantaneous-MAE of 13.0
beats-per-minute.
- Abstract(参考訳): 映像に基づく生理的信号の推定は、主に窓付き間隔でのエピソディックスコアの予測に制限されている。
これらの間欠的な値は有用であるが、患者の生理状態が不完全であり、臨界状態の検出が遅れる可能性がある。
顔映像から瞬時心拍数と呼吸率を推定するビデオトランスフォーマを提案する。
生理的信号は通常、時間と空間のアライメント誤差によって合成される。
これを克服するために周波数領域の損失を定式化した。
大規模なVision-for-Vitals(V4V)ベンチマークで評価した。
浅層と深層の両方に基づく呼吸速度の推定方法よりも優れていた。
心拍数推定では13.0拍子/分という瞬時MAEを達成した。
関連論文リスト
- Chaos in Motion: Unveiling Robustness in Remote Heart Rate Measurement through Brain-Inspired Skin Tracking [7.688280190165613]
既存の遠隔心拍測定法には3つの深刻な問題がある。
コンピュータビジョンタスクにカオス理論を初めて適用し、脳にインスパイアされたフレームワークとなる。
本手法はHR-RSTと呼ばれる心拍計測のためのロバスト皮膚追跡を実現する。
論文 参考訳(メタデータ) (2024-04-11T12:26:10Z) - VSViG: Real-time Video-based Seizure Detection via Skeleton-based Spatiotemporal ViG [8.100646331930953]
正確なて効率的なてんかん発作検出は、患者に有益である。
従来の診断法は、主に脳波(EEG)に依存しており、しばしば困難で移植不可能な解決策をもたらす。
骨格型時間的視覚グラフニューラルネットワークを用いて,ビデオに基づく新しいシーズーア検出モデルを提案する。
論文 参考訳(メタデータ) (2023-11-24T15:07:29Z) - Semantic-aware Temporal Channel-wise Attention for Cardiac Function
Assessment [69.02116920364311]
既存のビデオベースの手法では、左室領域や運動による左室の変化にはあまり注意を払わない。
本稿では,左室分割課題を伴う半教師付き補助学習パラダイムを提案し,左室領域の表現学習に寄与する。
提案手法は,0.22 MAE,0.26 RMSE,1.9%$R2$の改善により,スタンフォードデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-09T05:57:01Z) - Time-distance vision transformers in lung cancer diagnosis from
longitudinal computed tomography [4.924544172166966]
縦断的医療画像は、データ取得において、スパース、不規則な時間間隔というユニークな課題を提示する。
本研究では、連続時間のベクトル埋め込みと時間強調モデルを用いて、自己注意重みを拡大する時間距離視覚変換器(ViT)の2つの解釈を提案する。
この研究は、縦断的医療画像の分類のための最初の自己注意に基づくフレームワークである。
論文 参考訳(メタデータ) (2022-09-04T19:08:44Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Learning Higher-Order Dynamics in Video-Based Cardiac Measurement [5.571184025017747]
心パルスにおいて、第2誘導体は血圧および動脈疾患の指標として用いることができる。
近年, カメラを用いたバイタルサイン測定の進歩により, 心電図の精度が向上し, 心電図の精度が向上した。
損失関数に明示的に最適化した場合、高次ダイナミクスがニューラルネットワークによりより良く推定されることを示す。
論文 参考訳(メタデータ) (2021-10-07T16:29:55Z) - Perceptual Learned Video Compression with Recurrent Conditional GAN [158.0726042755]
本稿では, PVC (Perceptual Learned Video Compression) アプローチを提案する。
PLVCは低ビットレートで映像を知覚品質に圧縮することを学ぶ。
ユーザスタディでは、最新の学習ビデオ圧縮手法と比較して、PLVCの優れた知覚性能をさらに検証している。
論文 参考訳(メタデータ) (2021-09-07T13:36:57Z) - Real-time Webcam Heart-Rate and Variability Estimation with Clean Ground
Truth for Evaluation [9.883261192383612]
リモートフォトプレチモグラフィ(r)は、カメラを使って人の心拍数(hr)を推定する
HRVは、心臓の鼓動の間の間隔における微細な変動の尺度です。
新しいフィルタリングとモーション抑制を備えた洗練された効率的なリアルタイムrパイプラインを紹介します。
論文 参考訳(メタデータ) (2020-12-31T18:57:05Z) - Intrinsic Temporal Regularization for High-resolution Human Video
Synthesis [59.54483950973432]
時間整合性は、画像処理パイプラインをビデオドメインに拡張する上で重要である。
フレームジェネレーターを介して本質的信頼度マップを推定し,運動推定を調節する,本質的な時間正規化方式を提案する。
我々は、本質的な時間的規制をシングルイメージジェネレータに適用し、強力な「Internet」が512Times512$の人間のアクションビデオを生成します。
論文 参考訳(メタデータ) (2020-12-11T05:29:45Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。