論文の概要: Vision based body gesture meta features for Affective Computing
- arxiv url: http://arxiv.org/abs/2003.00809v1
- Date: Mon, 10 Feb 2020 14:38:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 09:39:34.483341
- Title: Vision based body gesture meta features for Affective Computing
- Title(参考訳): Affective Computingのための視覚に基づく身体ジェスチャーメタ機能
- Authors: Indigo J. D. Orton
- Abstract要約: 動作のメタ情報を表す新しいタイプの特徴について述べる。
これは、全体的な振る舞いを、集約されたメタ機能の小さなセットとして表現することで、既存の作業とは異なる。
自己評価された苦悩、人格、人口統計のラベルを持つインタビューの65件のビデオ記録のデータセットを新たに紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early detection of psychological distress is key to effective treatment.
Automatic detection of distress, such as depression, is an active area of
research. Current approaches utilise vocal, facial, and bodily modalities. Of
these, the bodily modality is the least investigated, partially due to the
difficulty in extracting bodily representations from videos, and partially due
to the lack of viable datasets. Existing body modality approaches use automatic
categorization of expressions to represent body language as a series of
specific expressions, much like words within natural language. In this
dissertation I present a new type of feature, within the body modality, that
represents meta information of gestures, such as speed, and use it to predict a
non-clinical depression label. This differs to existing work by representing
overall behaviour as a small set of aggregated meta features derived from a
person's movement. In my method I extract pose estimation from videos, detect
gestures within body parts, extract meta information from individual gestures,
and finally aggregate these features to generate a small feature vector for use
in prediction tasks. I introduce a new dataset of 65 video recordings of
interviews with self-evaluated distress, personality, and demographic labels.
This dataset enables the development of features utilising the whole body in
distress detection tasks. I evaluate my newly introduced meta-features for
predicting depression, anxiety, perceived stress, somatic stress, five standard
personality measures, and gender. A linear regression based classifier using
these features achieves a 82.70% F1 score for predicting depression within my
novel dataset.
- Abstract(参考訳): 心理的苦痛の早期発見は効果的な治療の鍵となる。
うつ病などの苦痛を自動的に検出することは、研究の活発な領域である。
現在のアプローチは、声、顔、身体のモダリティを利用する。
これらのうち、身体的モダリティは、ビデオからの身体的表現の抽出が困難であることと、部分的には実行可能なデータセットの欠如のため、ほとんど調査されていない。
既存のボディモダリティアプローチでは、自然言語内の単語のように、ボディ言語を一連の特定の表現として表現するために、表現の自動分類を使用する。
本論文では, 身体のモダリティの中で, 速度などのジェスチャーのメタ情報を表す新しいタイプの特徴を提示し, 非クリニカルな抑うつラベルの予測に利用する。
これは既存の作業と異なり、全体の動作を人の動きから派生した小さな集約されたメタ特徴の集合として表現する。
本手法では,ビデオからポーズ推定を抽出し,身体部分内のジェスチャーを検出し,個々のジェスチャーからメタ情報を抽出し,最終的にこれらの特徴を集約し,予測タスクに使用する小さな特徴ベクトルを生成する。
自己評価された苦悩、個性、人口統計ラベルを用いたインタビューの65のビデオ録画のデータセットを新たに紹介する。
このデータセットは、身体全体を救難検出タスクに活用する機能の開発を可能にする。
抑うつ,不安,認知的ストレス,体性ストレス,5つの標準的個性尺度,性別を予測するメタ機能について検討した。
これらの特徴を用いた線形回帰型分類器は、私の新しいデータセットにおける抑うつを予測するための82.70%のF1スコアを得る。
関連論文リスト
- A BERT-Based Summarization approach for depression detection [1.7363112470483526]
うつ病は世界中で流行する精神疾患であり、対処されないと深刻な反感を引き起こす可能性がある。
機械学習と人工知能は、さまざまなデータソースからのうつ病指標を自律的に検出することができる。
本研究では,入力テキストの長さと複雑さを低減させる前処理手法として,テキスト要約を提案する。
論文 参考訳(メタデータ) (2024-09-13T02:14:34Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Learning Language and Multimodal Privacy-Preserving Markers of Mood from
Mobile Data [74.60507696087966]
精神状態は、先進医療に共通する国でも診断されていない。
人間の行動を監視するための有望なデータソースのひとつは、日々のスマートフォンの利用だ。
本研究では,自殺行動のリスクが高い青少年集団の移動行動のデータセットを用いて,日常生活の行動マーカーについて検討した。
論文 参考訳(メタデータ) (2021-06-24T17:46:03Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Regional Attention Network (RAN) for Head Pose and Fine-grained Gesture
Recognition [9.131161856493486]
本研究では,CNN(Convolutional Neural Network) である RAN (End-to-end textbfRegional Attention Network) を提案する。
我々の領域は1つ以上の連続した細胞から構成されており、HOG(Histogram of Oriented Gradient)ディスクリプタの計算に使用される戦略に適応している。
提案手法は、異なる指標のかなりの差で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-01-17T10:14:28Z) - Pose-based Body Language Recognition for Emotion and Psychiatric Symptom
Interpretation [75.3147962600095]
通常のRGBビデオから始まるボディーランゲージに基づく感情認識のための自動フレームワークを提案する。
心理学者との連携により,精神症状予測の枠組みを拡張した。
提案されたフレームワークの特定のアプリケーションドメインは限られた量のデータしか供給しないため、フレームワークは小さなトレーニングセットで動作するように設計されている。
論文 参考訳(メタデータ) (2020-10-30T18:45:16Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Multimodal Depression Severity Prediction from medical bio-markers using
Machine Learning Tools and Technologies [0.0]
うつ病は世界中の精神疾患の主要な原因となっている。
近年,うつ病の診断とステージ予測の自動化に行動的手がかりが用いられている。
ラベル付き行動データセットの欠如と、膨大な量のバリエーションが、タスクを達成する上で大きな課題であることが証明されている。
論文 参考訳(メタデータ) (2020-09-11T20:44:28Z) - Looking At The Body: Automatic Analysis of Body Gestures and
Self-Adaptors in Psychological Distress [0.9624643581968987]
心理学的苦痛は社会において重要かつ増大している問題である。
ポーズ推定とディープラーニングの最近の進歩は、このモダリティとドメインに対する新しいアプローチを可能にしている。
本研究では,自己適応者のサブセットである自己適応とフィジットを自動的に検出する新たな手法を提案する。
論文 参考訳(メタデータ) (2020-07-31T02:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。