論文の概要: Instantaneous Physiological Estimation using Video Transformers
- arxiv url: http://arxiv.org/abs/2202.12368v1
- Date: Thu, 24 Feb 2022 21:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 14:58:32.270470
- Title: Instantaneous Physiological Estimation using Video Transformers
- Title(参考訳): ビデオトランスを用いた瞬時生理評価
- Authors: Ambareesh Revanur, Ananyananda Dasari, Conrad S. Tucker, Laszlo A.
Jeni
- Abstract要約: 映像に基づく生理学的信号推定は、主に窓の間隔でエピソードスコアを予測することに限られている。
顔画像から瞬時心拍数と呼吸率を推定するビデオトランスフォーマーを提案する。
- 参考スコア(独自算出の注目度): 6.772249211312724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video-based physiological signal estimation has been limited primarily to
predicting episodic scores in windowed intervals. While these intermittent
values are useful, they provide an incomplete picture of patients'
physiological status and may lead to late detection of critical conditions. We
propose a video Transformer for estimating instantaneous heart rate and
respiration rate from face videos. Physiological signals are typically
confounded by alignment errors in space and time. To overcome this, we
formulated the loss in the frequency domain. We evaluated the method on the
large scale Vision-for-Vitals (V4V) benchmark. It outperformed both shallow and
deep learning based methods for instantaneous respiration rate estimation. In
the case of heart-rate estimation, it achieved an instantaneous-MAE of 13.0
beats-per-minute.
- Abstract(参考訳): 映像に基づく生理的信号の推定は、主に窓付き間隔でのエピソディックスコアの予測に制限されている。
これらの間欠的な値は有用であるが、患者の生理状態が不完全であり、臨界状態の検出が遅れる可能性がある。
顔映像から瞬時心拍数と呼吸率を推定するビデオトランスフォーマを提案する。
生理的信号は通常、時間と空間のアライメント誤差によって合成される。
これを克服するために周波数領域の損失を定式化した。
大規模なVision-for-Vitals(V4V)ベンチマークで評価した。
浅層と深層の両方に基づく呼吸速度の推定方法よりも優れていた。
心拍数推定では13.0拍子/分という瞬時MAEを達成した。
関連論文リスト
- Semantic-aware Temporal Channel-wise Attention for Cardiac Function
Assessment [69.02116920364311]
既存のビデオベースの手法では、左室領域や運動による左室の変化にはあまり注意を払わない。
本稿では,左室分割課題を伴う半教師付き補助学習パラダイムを提案し,左室領域の表現学習に寄与する。
提案手法は,0.22 MAE,0.26 RMSE,1.9%$R2$の改善により,スタンフォードデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-09T05:57:01Z) - Facial Video-based Remote Physiological Measurement via Self-supervised
Learning [9.99375728024877]
本稿では,映像からr信号を推定する新たなフレームワークを提案する。
負のサンプルは、非線形信号周波数変換を行う学習可能な周波数モジュールを介して生成される。
次に、強化サンプルからr信号を推定するために、局所的なrエキスパートアグリゲーションモジュールを導入する。
異なる顔領域からの相補的な脈動情報を符号化し、それらを1つのr予測に集約する。
論文 参考訳(メタデータ) (2022-10-27T13:03:23Z) - Time-distance vision transformers in lung cancer diagnosis from
longitudinal computed tomography [4.924544172166966]
縦断的医療画像は、データ取得において、スパース、不規則な時間間隔というユニークな課題を提示する。
本研究では、連続時間のベクトル埋め込みと時間強調モデルを用いて、自己注意重みを拡大する時間距離視覚変換器(ViT)の2つの解釈を提案する。
この研究は、縦断的医療画像の分類のための最初の自己注意に基づくフレームワークである。
論文 参考訳(メタデータ) (2022-09-04T19:08:44Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Learning Higher-Order Dynamics in Video-Based Cardiac Measurement [5.571184025017747]
心パルスにおいて、第2誘導体は血圧および動脈疾患の指標として用いることができる。
近年, カメラを用いたバイタルサイン測定の進歩により, 心電図の精度が向上し, 心電図の精度が向上した。
損失関数に明示的に最適化した場合、高次ダイナミクスがニューラルネットワークによりより良く推定されることを示す。
論文 参考訳(メタデータ) (2021-10-07T16:29:55Z) - Perceptual Learned Video Compression with Recurrent Conditional GAN [158.0726042755]
本稿では, PVC (Perceptual Learned Video Compression) アプローチを提案する。
PLVCは低ビットレートで映像を知覚品質に圧縮することを学ぶ。
ユーザスタディでは、最新の学習ビデオ圧縮手法と比較して、PLVCの優れた知覚性能をさらに検証している。
論文 参考訳(メタデータ) (2021-09-07T13:36:57Z) - Real-time Webcam Heart-Rate and Variability Estimation with Clean Ground
Truth for Evaluation [9.883261192383612]
リモートフォトプレチモグラフィ(r)は、カメラを使って人の心拍数(hr)を推定する
HRVは、心臓の鼓動の間の間隔における微細な変動の尺度です。
新しいフィルタリングとモーション抑制を備えた洗練された効率的なリアルタイムrパイプラインを紹介します。
論文 参考訳(メタデータ) (2020-12-31T18:57:05Z) - Intrinsic Temporal Regularization for High-resolution Human Video
Synthesis [59.54483950973432]
時間整合性は、画像処理パイプラインをビデオドメインに拡張する上で重要である。
フレームジェネレーターを介して本質的信頼度マップを推定し,運動推定を調節する,本質的な時間正規化方式を提案する。
我々は、本質的な時間的規制をシングルイメージジェネレータに適用し、強力な「Internet」が512Times512$の人間のアクションビデオを生成します。
論文 参考訳(メタデータ) (2020-12-11T05:29:45Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z) - Optimised Convolutional Neural Networks for Heart Rate Estimation and
Human Activity Recognition in Wrist Worn Sensing Applications [3.8137985834223507]
低サンプリングレートで心拍数と人的活動認識を同時に行う。
これにより、ハードウェア設計が簡単になり、コストと電力予算が削減される。
深層学習パイプラインを2つ適用し,1つは人間の活動認識用であり,1つは心拍数推定用である。
論文 参考訳(メタデータ) (2020-03-30T11:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。