論文の概要: EMOPAIN Challenge 2020: Multimodal Pain Evaluation from Facial and
Bodily Expressions
- arxiv url: http://arxiv.org/abs/2001.07739v3
- Date: Mon, 9 Mar 2020 16:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 23:52:40.546489
- Title: EMOPAIN Challenge 2020: Multimodal Pain Evaluation from Facial and
Bodily Expressions
- Title(参考訳): EMOPAIN Challenge 2020: 顔と身体の表情によるマルチモーダル痛みの評価
- Authors: Joy O. Egede, Siyang Song, Temitayo A. Olugbade, Chongyang Wang,
Amanda Williams, Hongying Meng, Min Aung, Nicholas D. Lane, Michel Valstar
and Nadia Bianchi-Berthouze
- Abstract要約: EmoPain 2020 Challengeは、機械学習とマルチメディア処理の比較のための統一プラットフォームを構築することを目的とした、最初の国際コンペティションである。
本稿では,課題,競争ガイドライン,ベンチマーキングデータセット,ベースラインシステムのアーキテクチャと性能について述べる。
- 参考スコア(独自算出の注目度): 10.48692251648146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The EmoPain 2020 Challenge is the first international competition aimed at
creating a uniform platform for the comparison of machine learning and
multimedia processing methods of automatic chronic pain assessment from human
expressive behaviour, and also the identification of pain-related behaviours.
The objective of the challenge is to promote research in the development of
assistive technologies that help improve the quality of life for people with
chronic pain via real-time monitoring and feedback to help manage their
condition and remain physically active. The challenge also aims to encourage
the use of the relatively underutilised, albeit vital bodily expression signals
for automatic pain and pain-related emotion recognition. This paper presents a
description of the challenge, competition guidelines, bench-marking dataset,
and the baseline systems' architecture and performance on the three sub-tasks:
pain estimation from facial expressions, pain recognition from multimodal
movement, and protective movement behaviour detection.
- Abstract(参考訳): EmoPain 2020 Challengeは、人間の表現行動から自動的に慢性的な痛みを評価する機械学習とマルチメディア処理方法の比較のための統一的なプラットフォームを構築することを目的とした、最初の国際コンペティションである。
この課題の目的は、リアルタイムのモニタリングとフィードバックを通じて慢性的な痛みを抱えた人々の生活の質を改善する支援技術の開発研究を促進することである。
この課題はまた、痛みと痛みに関連する感情認識のために、比較的未使用で、身体的な重要な表現信号の使用を促進することを目的としている。
本稿では,顔表情からの痛み推定,マルチモーダル動作からの痛み認識,保護運動行動検出の3つのサブタスクについて,課題,コンペティションガイドライン,ベンチマーキングデータセット,ベースラインシステムのアーキテクチャと性能について述べる。
関連論文リスト
- Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Automated facial recognition system using deep learning for pain
assessment in adults with cerebral palsy [0.5242869847419834]
既存の対策は、介護者による直接の観察に依存し、感度と特異性に欠ける。
10のニューラルネットワークが3つの痛み画像データベースでトレーニングされた。
InceptionV3はCP-PAINデータセット上で有望なパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-01-22T17:55:16Z) - A Survey on Computer Vision based Human Analysis in the COVID-19 Era [58.79053747159797]
新型コロナウイルスの出現は、社会全体だけでなく、個人の生活にも大きく影響している。
マスクやソーシャルディスタンシングの義務、公共空間での定期消毒、スクリーニングアプリケーションの使用など、さまざまな予防策が世界中で導入されている。
これらの発展は、(i)視覚データの自動解析による予防対策の支援、(ii)生体認証などの既存の視覚ベースのサービスの正常な操作を容易にする、新しいコンピュータビジョン技術の必要性を喚起した。
論文 参考訳(メタデータ) (2022-11-07T17:20:39Z) - Intelligent Sight and Sound: A Chronic Cancer Pain Dataset [74.77784420691937]
本稿では,Intelligent Sight and Sound (ISS) 臨床試験の一環として収集された,最初の慢性ガン痛データセットを紹介する。
これまで収集されたデータは29の患者、509のスマートフォンビデオ、189,999のフレーム、そして自己報告された感情と活動の痛みのスコアから成っている。
静的画像とマルチモーダルデータを用いて、自己報告された痛みレベルを予測する。
論文 参考訳(メタデータ) (2022-04-07T22:14:37Z) - Chronic Pain and Language: A Topic Modelling Approach to Personal Pain
Descriptions [0.688204255655161]
慢性的な痛みは主要な健康問題として認識されており、経済だけでなく、社会や個人のレベルにも影響を及ぼす。
個人的かつ主観的な経験であるため、慢性的な痛みを純粋に有害な刺激として、外的かつ公平に経験し、説明し、解釈することは不可能である。
本稿では,慢性痛の言語記述におけるパターン認識のためのトピックモデリング手法を提案し,これらのパターンを用いて痛み経験の定量化と評価を行う。
論文 参考訳(メタデータ) (2021-09-01T14:31:16Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Unobtrusive Pain Monitoring in Older Adults with Dementia using Pairwise
and Contrastive Training [3.7775543603998907]
高齢者では痛みが頻発するが、高齢者はしばしば痛みに対して過度に治療される。
これは、認知症を伴う認知障害のために痛みを報告できない中等度から重度の認知症を有する長期ケア居住者にとって特に当てはまります。
認知症コホートで検証された最初の完全自動化ビジョンベースの技術を紹介します。
論文 参考訳(メタデータ) (2021-01-08T23:28:30Z) - Pain Intensity Estimation from Mobile Video Using 2D and 3D Facial
Keypoints [1.6402428190800593]
術後痛の管理は外科的治療の成功に不可欠である。
痛み管理の課題の1つは、患者の痛みレベルを正確に評価することである。
本稿では,術後患者の2Dおよび3D顔のキーポイントを分析し,痛み強度を推定するアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-17T00:18:29Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。