論文の概要: Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction
- arxiv url: http://arxiv.org/abs/2105.08822v1
- Date: Tue, 18 May 2021 20:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 23:37:53.151402
- Title: Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction
- Title(参考訳): リモート生理計測予測による映像系列からの非接触痛認識
- Authors: Ruijing Yang, Ziyu Guan, Zitong Yu, Guoying Zhao, Xiaoyi Feng, Jinye
Peng
- Abstract要約: 痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
- 参考スコア(独自算出の注目度): 53.03469655641418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic pain recognition is paramount for medical diagnosis and treatment.
The existing works fall into three categories: assessing facial appearance
changes, exploiting physiological cues, or fusing them in a multi-modal manner.
However, (1) appearance changes are easily affected by subjective factors which
impedes objective pain recognition. Besides, the appearance-based approaches
ignore long-range spatial-temporal dependencies that are important for modeling
expressions over time; (2) the physiological cues are obtained by attaching
sensors on human body, which is inconvenient and uncomfortable. In this paper,
we present a novel multi-task learning framework which encodes both appearance
changes and physiological cues in a non-contact manner for pain recognition.
The framework is able to capture both local and long-range dependencies via the
proposed attention mechanism for the learned appearance representations, which
are further enriched by temporally attended physiological cues (remote
photoplethysmography, rPPG) that are recovered from videos in the auxiliary
task. This framework is dubbed rPPG-enriched Spatio-Temporal Attention Network
(rSTAN) and allows us to establish the state-of-the-art performance of
non-contact pain recognition on publicly available pain databases. It
demonstrates that rPPG predictions can be used as an auxiliary task to
facilitate non-contact automatic pain recognition.
- Abstract(参考訳): 自動鎮痛は診断と治療において最重要である。
既存の作品は、顔の外観の変化の評価、生理的な手がかりの活用、マルチモーダルな方法でそれらを融合させるという3つのカテゴリに分類される。
しかし,(1)外見の変化は主観的痛み認知を妨げる主観的要因の影響を受けやすい。
また,表情に基づくアプローチでは,表現のモデル化に重要な長期的空間的-時間的依存性を無視し,(2)不便で不快な人体にセンサを装着することで生理学的手がかりを得る。
本稿では,出現変化と生理的手がかりの両方を非接触的にエンコードして痛み認識を行うマルチタスク学習フレームワークを提案する。
このフレームワークは、学習された外観表現に対する注意機構を通じて局所的および長期的依存性の両方を捉えることができ、補助タスクでビデオから復元された生理的手がかり(remote photoplethysmography, rppg)によりさらに強化される。
このフレームワークはrPPGにより強化された時空間注意ネットワーク(rSTAN)と呼ばれ、一般に利用可能な痛みデータベース上での非接触痛認識の最先端性能を確立することができる。
これはrppg予測を非接触自動痛み認識の補助タスクとして使用できることを示す。
関連論文リスト
- Automated facial recognition system using deep learning for pain
assessment in adults with cerebral palsy [0.5242869847419834]
既存の対策は、介護者による直接の観察に依存し、感度と特異性に欠ける。
10のニューラルネットワークが3つの痛み画像データベースでトレーニングされた。
InceptionV3はCP-PAINデータセット上で有望なパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-01-22T17:55:16Z) - Transformer Encoder with Multiscale Deep Learning for Pain
Classification Using Physiological Signals [0.0]
痛みは主観的な感覚駆動体験である。
痛みの強さを測定する伝統的な技術は偏見に影響を受けやすく、場合によっては信頼できない。
そこで我々は,生理的シグナルを入力として,痛み強度を分類する新しいトランスフォーマーエンコーダディープラーニングフレームワークPainAttnNetを開発した。
論文 参考訳(メタデータ) (2023-03-13T04:21:33Z) - Pain level and pain-related behaviour classification using GRU-based
sparsely-connected RNNs [61.080598804629375]
慢性的な痛みを持つ人は、特定の身体の動きを無意識に適応させ、怪我や追加の痛みから身を守る。
この相関関係を分析するための専用のベンチマークデータベースが存在しないため、日々の行動に影響を及ぼす可能性のある特定の状況の1つを検討した。
我々は、複数のオートエンコーダを組み込んだゲートリカレントユニット(GRU)と疎結合なリカレントニューラルネットワーク(s-RNN)のアンサンブルを提案した。
本手法は,痛みレベルと痛み関連行動の両方の分類において,最先端のアプローチよりも優れていることを示すいくつかの実験を行った。
論文 参考訳(メタデータ) (2022-12-20T12:56:28Z) - Benchmarking Joint Face Spoofing and Forgery Detection with Visual and
Physiological Cues [81.15465149555864]
視覚的外観と生理的rcuesを用いた第1回関節スプーフィングおよび検出ベンチマークを作成した。
r周期性判別を強化するために,顔の強信号マップと連続ウェーブレットを入力として変換した2分岐生理ネットワークを設計した。
論文 参考訳(メタデータ) (2022-08-10T15:41:48Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - Do Deep Neural Networks Forget Facial Action Units? -- Exploring the
Effects of Transfer Learning in Health Related Facial Expression Recognition [1.940353665249968]
感情から痛みへの自動表情認識のためのトランスファー学習の効果を検討するプロセスを提示する。
まずvgg16畳み込みニューラルネットワークを訓練し、8つのカテゴリー感情を自動的に識別する。
そして、このネットワークの大きな部分を微調整して、痛みの自動認識のタスクに適した表現を学習します。
論文 参考訳(メタデータ) (2021-04-15T11:37:19Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z) - Occlusion-Adaptive Deep Network for Robust Facial Expression Recognition [56.11054589916299]
本研究では,隠蔽領域から腐敗した特徴を発見・破棄するためのランドマーク誘導型アテンションブランチを提案する。
注意マップが最初に作成され、特定の顔部が閉鎖されているかどうかを示し、我々のモデルを非閉鎖領域に誘導する。
これにより、顔が部分的に隠されている場合でも、表情認識システムが回復することができる。
論文 参考訳(メタデータ) (2020-05-12T20:42:55Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。