論文の概要: Quantified Facial Expressiveness for Affective Behavior Analytics
- arxiv url: http://arxiv.org/abs/2110.01758v2
- Date: Thu, 7 Oct 2021 14:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 14:22:54.721842
- Title: Quantified Facial Expressiveness for Affective Behavior Analytics
- Title(参考訳): 感情行動分析のための定量的表情表現
- Authors: Md Taufeeq Uddin, Shaun Canavan
- Abstract要約: 本論文では,マルチモーダル顔特徴量を用いた境界付き連続表現度スコアを用いた顔表現度を定量化するアルゴリズムを提案する。
提案アルゴリズムは,表現の離散性の観点から表現性を計算し,顔の行動追跡や主観性といったタスクを文脈で実行することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The quantified measurement of facial expressiveness is crucial to analyze
human affective behavior at scale. Unfortunately, methods for expressiveness
quantification at the video frame-level are largely unexplored, unlike the
study of discrete expression. In this work, we propose an algorithm that
quantifies facial expressiveness using a bounded, continuous expressiveness
score using multimodal facial features, such as action units (AUs), landmarks,
head pose, and gaze. The proposed algorithm more heavily weights AUs with high
intensities and large temporal changes. The proposed algorithm can compute the
expressiveness in terms of discrete expression, and can be used to perform
tasks including facial behavior tracking and subjectivity quantification in
context. Our results on benchmark datasets show the proposed algorithm is
effective in terms of capturing temporal changes and expressiveness, measuring
subjective differences in context, and extracting useful insight.
- Abstract(参考訳): 顔の表情の定量化は、人間の感情行動の分析に不可欠である。
残念ながら、ビデオフレームレベルでの表現性定量化の方法は、離散表現の研究とは異なり、ほとんど探索されていない。
本研究では,行動単位(aus),ランドマーク,頭部ポーズ,視線などの多彩な顔特徴を用いた,有界連続表現性スコアを用いて表情表現性を定量化するアルゴリズムを提案する。
提案アルゴリズムは、高強度で時間変化が大きいAUをより重くする。
提案アルゴリズムは,表現の離散性の観点から表現性を計算し,顔の行動追跡や文脈における主観的定量化などのタスクに使用できる。
提案アルゴリズムは,時間的変化と表現性の把握,文脈の主観的差異の測定,有用な洞察の抽出に有効であることを示す。
関連論文リスト
- ACE : Off-Policy Actor-Critic with Causality-Aware Entropy Regularization [52.5587113539404]
因果関係を考慮したエントロピー(entropy)という用語を導入し,効率的な探索を行うための潜在的影響の高いアクションを効果的に識別し,優先順位付けする。
提案アルゴリズムであるACE:Off-policy Actor-critic with Causality-aware Entropy regularizationは,29種類の連続制御タスクに対して,大幅な性能上の優位性を示す。
論文 参考訳(メタデータ) (2024-02-22T13:22:06Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Frame-level Prediction of Facial Expressions, Valence, Arousal and
Action Units for Mobile Devices [7.056222499095849]
本稿では,AffectNetで事前学習した1つのEfficientNetモデルを用いて,顔の特徴を抽出し,フレームレベルの感情認識アルゴリズムを提案する。
当社のアプローチは,モバイルデバイス上でのビデオ解析にも適用できる。
論文 参考訳(メタデータ) (2022-03-25T03:53:27Z) - Modeling Dynamics of Facial Behavior for Mental Health Assessment [4.130361751085622]
自然言語処理における単語表現に使用されるアルゴリズムを用いて,表情の動的表現の可能性を検討する。
顔クラスタの埋め込みを学習するために,Global Vector representation (GloVe)アルゴリズムを適用する前に,5.3Mフレームの時間的表情の大規模なデータセット上でクラスタリングを行う。
統合失調症の症状重症度推定と抑うつ回帰という2つの下流課題における学習表現の有用性を評価した。
論文 参考訳(メタデータ) (2021-08-23T05:08:45Z) - Efficient Facial Expression Analysis For Dimensional Affect Recognition
Using Geometric Features [4.555179606623412]
本研究では, 顔表情分析システム(FEA)を導入する。
提案手法は堅牢で効率的であり、現代のディープラーニングモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2021-06-15T00:28:16Z) - Progressive Spatio-Temporal Bilinear Network with Monte Carlo Dropout
for Landmark-based Facial Expression Recognition with Uncertainty Estimation [93.73198973454944]
提案手法の性能は, 広く使用されている3つのデータセットで評価される。
ビデオベースの最先端の手法に匹敵するが、複雑さははるかに少ない。
論文 参考訳(メタデータ) (2021-06-08T13:40:30Z) - Quantified Facial Temporal-Expressiveness Dynamics for Affect Analysis [0.0]
本研究では,人間の顔の表現力を定量化するために,顔の時間的表現性ダイナミクス(TED)を提案する。
TEDは、構造化されていない視覚データの要約や、自動感情認識モデルからの期待や解釈など、高度なタスクに利用できることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:22:22Z) - Micro-Facial Expression Recognition Based on Deep-Rooted Learning
Algorithm [0.0]
本稿では,MFEDRL(Micro-Facial Expression Based Deep-Rooted Learning)分類器を提案する。
アルゴリズムの性能は認識率と偽測度を用いて評価する。
論文 参考訳(メタデータ) (2020-09-12T12:23:27Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。