論文の概要: Looking At The Body: Automatic Analysis of Body Gestures and
Self-Adaptors in Psychological Distress
- arxiv url: http://arxiv.org/abs/2007.15815v1
- Date: Fri, 31 Jul 2020 02:45:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:20:03.774842
- Title: Looking At The Body: Automatic Analysis of Body Gestures and
Self-Adaptors in Psychological Distress
- Title(参考訳): 身体を見る: 心理的苦痛における身体の身振りと自己適応の自動分析
- Authors: Weizhe Lin, Indigo Orton, Qingbiao Li, Gabriela Pavarini, Marwa
Mahmoud
- Abstract要約: 心理学的苦痛は社会において重要かつ増大している問題である。
ポーズ推定とディープラーニングの最近の進歩は、このモダリティとドメインに対する新しいアプローチを可能にしている。
本研究では,自己適応者のサブセットである自己適応とフィジットを自動的に検出する新たな手法を提案する。
- 参考スコア(独自算出の注目度): 0.9624643581968987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Psychological distress is a significant and growing issue in society.
Automatic detection, assessment, and analysis of such distress is an active
area of research. Compared to modalities such as face, head, and vocal,
research investigating the use of the body modality for these tasks is
relatively sparse. This is, in part, due to the limited available datasets and
difficulty in automatically extracting useful body features. Recent advances in
pose estimation and deep learning have enabled new approaches to this modality
and domain. To enable this research, we have collected and analyzed a new
dataset containing full body videos for short interviews and self-reported
distress labels. We propose a novel method to automatically detect
self-adaptors and fidgeting, a subset of self-adaptors that has been shown to
be correlated with psychological distress. We perform analysis on statistical
body gestures and fidgeting features to explore how distress levels affect
participants' behaviors. We then propose a multi-modal approach that combines
different feature representations using Multi-modal Deep Denoising
Auto-Encoders and Improved Fisher Vector Encoding. We demonstrate that our
proposed model, combining audio-visual features with automatically detected
fidgeting behavioral cues, can successfully predict distress levels in a
dataset labeled with self-reported anxiety and depression levels.
- Abstract(参考訳): 心理的苦痛は社会において重要かつ増大する問題である。
このような苦痛の自動検出、評価、分析は、研究の活発な領域である。
顔、頭、声といったモダリティと比較して、これらのタスクに身体のモダリティを使用することを研究する研究は比較的少ない。
これは、利用可能なデータセットが限られていることや、有用な身体機能を自動的に抽出するのが難しいことによる。
最近のポーズ推定とディープラーニングの進歩により、このモダリティとドメインに対する新しいアプローチが可能になった。
そこで本研究では,短時間のインタビューや自己報告の苦難ラベルのための全身ビデオを含む新しいデータセットを収集・分析した。
本研究では,自己適応者のサブセットである自己適応とフィジットを自動的に検出する新たな手法を提案する。
統計的身体動作とフィジット機能の分析を行い、被験者の行動にどう影響するかを探索する。
そこで本研究では,マルチモーダル・ディープ・デノイジングオートエンコーダとフィッシャーベクトルエンコーディングの改良を用いた特徴表現を組み合わせるマルチモーダル手法を提案する。
提案モデルでは,自己報告型不安度と抑うつ度とをラベル付けしたデータセットにおいて,音声視覚機能と自動検出型行動手がかりを組み合わせることで,苦痛レベルを予測できることを実証した。
関連論文リスト
- EmoScan: Automatic Screening of Depression Symptoms in Romanized Sinhala Tweets [0.0]
この研究は、抑うつのリスクがある個人を特定するために、ロマタイズド・シンハラのソーシャルメディアデータの利用を探求する。
言語パターン、感情、行動の手がかりを分析することにより、抑うつ症状の自動スクリーニングのための機械学習ベースのフレームワークが提示される。
論文 参考訳(メタデータ) (2024-03-28T10:31:09Z) - Reliability Analysis of Psychological Concept Extraction and
Classification in User-penned Text [9.26840677406494]
私たちはLoSTデータセットを使って、Redditユーザーの投稿に低い自尊心があることを示唆するニュアンスのあるテキストキューをキャプチャします。
以上の結果から, PLM の焦点を Trigger と Consequences からより包括的な説明に移行する必要性が示唆された。
論文 参考訳(メタデータ) (2024-01-12T17:19:14Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - DEPAC: a Corpus for Depression and Anxiety Detection from Speech [3.2154432166999465]
本稿では、うつ病と不安スクリーニングツールの確立したしきい値に基づいてラベル付けされた、心的苦痛分析オーディオデータセットDEPACを紹介する。
この大きなデータセットは、個人ごとの複数の音声タスクと、関連する人口統計情報から構成される。
人間の音声における精神疾患の徴候の同定に有効な,手作業による音響的特徴と言語的特徴からなる特徴セットを提案する。
論文 参考訳(メタデータ) (2023-06-20T12:21:06Z) - What's on your mind? A Mental and Perceptual Load Estimation Framework
towards Adaptive In-vehicle Interaction while Driving [55.41644538483948]
精神的な作業量と知覚的負荷が心理生理学的次元に及ぼす影響を分析する。
これらの測定値の融合により、心的および知覚的負荷レベルを分類する。
我々は、最大89%のメンタルワークロード分類精度を報告し、リアルタイムに最小限のソリューションを提供する。
論文 参考訳(メタデータ) (2022-08-10T21:19:49Z) - Bodily Behaviors in Social Interaction: Novel Annotations and
State-of-the-Art Evaluation [0.0]
本稿では,社会相互作用に埋め込まれた複雑な身体行動の最初のアノテーションであるBBSIについて述べる。
心理学における過去の研究に基づいて,26時間の自発的な行動について手動で注釈を付けた。
我々は、人間の行動検出のための最先端のアプローチであるピラミッド拡張注意ネットワーク(PDAN)を適応する。
論文 参考訳(メタデータ) (2022-07-26T11:24:00Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z) - Vision based body gesture meta features for Affective Computing [0.0]
動作のメタ情報を表す新しいタイプの特徴について述べる。
これは、全体的な振る舞いを、集約されたメタ機能の小さなセットとして表現することで、既存の作業とは異なる。
自己評価された苦悩、人格、人口統計のラベルを持つインタビューの65件のビデオ記録のデータセットを新たに紹介する。
論文 参考訳(メタデータ) (2020-02-10T14:38:16Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。