論文の概要: Modeling Dynamics of Facial Behavior for Mental Health Assessment
- arxiv url: http://arxiv.org/abs/2108.09934v1
- Date: Mon, 23 Aug 2021 05:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 21:22:57.336631
- Title: Modeling Dynamics of Facial Behavior for Mental Health Assessment
- Title(参考訳): メンタルヘルスアセスメントのための顔行動のモデリングダイナミクス
- Authors: Minh Tran, Ellen Bradley, Michelle Matvey, Joshua Woolley, Mohammad
Soleymani
- Abstract要約: 自然言語処理における単語表現に使用されるアルゴリズムを用いて,表情の動的表現の可能性を検討する。
顔クラスタの埋め込みを学習するために,Global Vector representation (GloVe)アルゴリズムを適用する前に,5.3Mフレームの時間的表情の大規模なデータセット上でクラスタリングを行う。
統合失調症の症状重症度推定と抑うつ回帰という2つの下流課題における学習表現の有用性を評価した。
- 参考スコア(独自算出の注目度): 4.130361751085622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial action unit (FAU) intensities are popular descriptors for the analysis
of facial behavior. However, FAUs are sparsely represented when only a few are
activated at a time. In this study, we explore the possibility of representing
the dynamics of facial expressions by adopting algorithms used for word
representation in natural language processing. Specifically, we perform
clustering on a large dataset of temporal facial expressions with 5.3M frames
before applying the Global Vector representation (GloVe) algorithm to learn the
embeddings of the facial clusters. We evaluate the usefulness of our learned
representations on two downstream tasks: schizophrenia symptom estimation and
depression severity regression. These experimental results show the potential
effectiveness of our approach for improving the assessment of mental health
symptoms over baseline models that use FAU intensities alone.
- Abstract(参考訳): 顔面行動単位(FAU)強度は、顔の行動分析のための一般的な記述法である。
しかし、FAUは、一度に数個しか活性化されないときにわずかに表現される。
本研究では,自然言語処理における単語表現に使用されるアルゴリズムを用いて,表情の動的表現の可能性を検討する。
具体的には、顔クラスタの埋め込みを学習するためにグローバルベクトル表現(GloVe)アルゴリズムを適用する前に、5.3Mフレームの時間的表情の大規模なデータセット上でクラスタリングを行う。
統合失調症の症状推定とうつ病重症度回帰という2つの下流課題における学習表現の有用性を評価する。
これらの実験結果から,FAU強度のみを用いたベースラインモデルによるメンタルヘルス症状の評価を改善するためのアプローチの有効性が示唆された。
関連論文リスト
- Faces of the Mind: Unveiling Mental Health States Through Facial Expressions in 11,427 Adolescents [12.51443153354506]
うつ病や不安などの気分障害は、しばしば表情を通して現れる。
11,427人の被験者の顔映像を分析した。
論文 参考訳(メタデータ) (2024-05-30T14:02:40Z) - Robust Light-Weight Facial Affective Behavior Recognition with CLIP [12.368133562194267]
人間の感情行動分析は、人間の感情に対する理解を深めるために、人間の表情や行動を調べることを目的としている。
表現分類やAU検出における既存のアプローチは、しばしば複雑なモデルとかなりの計算資源を必要とする。
本稿では,表現分類とAU検出の両方を効率的に扱うための,最初の軽量フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-14T23:21:55Z) - EmoCLIP: A Vision-Language Method for Zero-Shot Video Facial Expression Recognition [10.411186945517148]
本稿では,サンプルレベルのテキスト記述を自然言語の監視に用いる新しい視覚言語モデルを提案する。
以上の結果から,本手法はベースライン法と比較して大きな改善をもたらすことが示唆された。
本研究では,メンタルヘルス症状推定の下流課題について,サンプルレベル記述を用いてトレーニングしたネットワークから得られた表現を評価した。
論文 参考訳(メタデータ) (2023-10-25T13:43:36Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Frame-level Prediction of Facial Expressions, Valence, Arousal and
Action Units for Mobile Devices [7.056222499095849]
本稿では,AffectNetで事前学習した1つのEfficientNetモデルを用いて,顔の特徴を抽出し,フレームレベルの感情認識アルゴリズムを提案する。
当社のアプローチは,モバイルデバイス上でのビデオ解析にも適用できる。
論文 参考訳(メタデータ) (2022-03-25T03:53:27Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - Quantified Facial Expressiveness for Affective Behavior Analytics [0.0]
本論文では,マルチモーダル顔特徴量を用いた境界付き連続表現度スコアを用いた顔表現度を定量化するアルゴリズムを提案する。
提案アルゴリズムは,表現の離散性の観点から表現性を計算し,顔の行動追跡や主観性といったタスクを文脈で実行することができる。
論文 参考訳(メタデータ) (2021-10-05T00:21:33Z) - FP-Age: Leveraging Face Parsing Attention for Facial Age Estimation in
the Wild [50.8865921538953]
年齢推定に顔のセマンティクスを明示的に組み込む手法を提案する。
我々は,顔解析に基づくネットワークを設計し,異なるスケールで意味情報を学習する。
提案手法は,既存の年齢推定手法を常に上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-21T14:31:32Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。