論文の概要: A Multi-term and Multi-task Analyzing Framework for Affective Analysis
in-the-wild
- arxiv url: http://arxiv.org/abs/2009.13885v2
- Date: Fri, 2 Oct 2020 13:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 06:38:15.097388
- Title: A Multi-term and Multi-task Analyzing Framework for Affective Analysis
in-the-wild
- Title(参考訳): 感性分析のためのマルチタスク・マルチタスク分析フレームワーク
- Authors: Sachihiro Youoku, Yuushi Toyoda, Takahisa Yamamoto, Junya Saito,
Ryosuke Kawamura, Xiaoyu Mi and Kentaro Murase
- Abstract要約: 本稿では,ABAW(Affective Behavior Analysis in-the-Wild)2020 Contestに提出された感情認識手法を紹介する。
感情行動には独自の時間枠を持つ観測可能な多くの特徴があるため、複数の最適化された時間窓を導入しました。
時間ごとの感情認識モデルを作成し、これらのモデルをまとめました。
- 参考スコア(独自算出の注目度): 0.2216657815393579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human affective recognition is an important factor in human-computer
interaction. However, the method development with in-the-wild data is not yet
accurate enough for practical usage. In this paper, we introduce the affective
recognition method focusing on valence-arousal (VA) and expression (EXP) that
was submitted to the Affective Behavior Analysis in-the-wild (ABAW) 2020
Contest. Since we considered that affective behaviors have many observable
features that have their own time frames, we introduced multiple optimized time
windows (short-term, middle-term, and long-term) into our analyzing framework
for extracting feature parameters from video data. Moreover, multiple modality
data are used, including action units, head poses, gaze, posture, and ResNet 50
or Efficient NET features, and are optimized during the extraction of these
features. Then, we generated affective recognition models for each time window
and ensembled these models together. Also, we fussed the valence, arousal, and
expression models together to enable the multi-task learning, considering the
fact that the basic psychological states behind facial expressions are closely
related to each another. In the validation set, our model achieved a
valence-arousal score of 0.498 and a facial expression score of 0.471. These
verification results reveal that our proposed framework can improve estimation
accuracy and robustness effectively.
- Abstract(参考訳): 人間の感情認識は、人間とコンピュータの相互作用において重要な要素である。
しかし,Wildデータを用いた手法の開発は,実用化には不十分である。
本稿では,ABAW(Affective Behavior Analysis in-the-wild)2020 Contestに提出されたVA(valence-arousal)とEXP(Expression)に着目した感情認識手法を提案する。
映像データから特徴パラメータを抽出するための分析フレームワークに複数の最適化された時間ウィンドウ(短期,中期,長期)を導入した。
さらに、アクションユニット、ヘッドポーズ、視線、姿勢、およびresnet 50を含む複数のモダリティデータまたは効率的なネット特徴を使用して、これらの特徴を抽出する際に最適化する。
そして,各時間ウィンドウに対する感情認識モデルを作成し,それらのモデルを組み合わせてアンサンブルした。
また,表情の背後にある基本的な心理状態が相互に密接な関係にあることを考慮し,ヴァレンス,覚醒,表現モデルを融合してマルチタスク学習を可能にした。
検証セットでは,valence-arousal score 0.498,face expression score 0.471を得た。
これらの検証結果から,提案フレームワークは推定精度とロバスト性を効果的に向上できることがわかった。
関連論文リスト
- Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - SwinFace: A Multi-task Transformer for Face Recognition, Expression
Recognition, Age Estimation and Attribute Estimation [60.94239810407917]
本論文では,単一スウィントランスを用いた顔認識,表情認識,年齢推定,顔属性推定のための多目的アルゴリズムを提案する。
複数のタスク間の競合に対処するため、マルチレベルチャネル注意(MLCA)モジュールをタスク固有の分析に統合する。
実験の結果,提案したモデルでは顔の理解が良く,全てのタスクにおいて優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-22T15:38:39Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Frame-level Prediction of Facial Expressions, Valence, Arousal and
Action Units for Mobile Devices [7.056222499095849]
本稿では,AffectNetで事前学習した1つのEfficientNetモデルを用いて,顔の特徴を抽出し,フレームレベルの感情認識アルゴリズムを提案する。
当社のアプローチは,モバイルデバイス上でのビデオ解析にも適用できる。
論文 参考訳(メタデータ) (2022-03-25T03:53:27Z) - A Multi-modal and Multi-task Learning Method for Action Unit and
Expression Recognition [18.478011167414223]
視覚情報と音声情報の両方を用いたマルチモーダル・マルチタスク学習手法を提案する。
AUスコアは0.712、式スコアは0.477となる。
論文 参考訳(メタデータ) (2021-07-09T03:28:17Z) - Multi-modal Affect Analysis using standardized data within subjects in
the Wild [8.05417723395965]
本稿では,表情(EXP)に着目した感情認識手法を提案する。
提案手法は,評価精度とロバスト性を効果的に向上する。
論文 参考訳(メタデータ) (2021-07-07T04:18:28Z) - An Enhanced Adversarial Network with Combined Latent Features for
Spatio-Temporal Facial Affect Estimation in the Wild [1.3007851628964147]
本稿では,遅延特徴に基づく時間的モデリングにより,空間的特徴と時間的特徴の両方を効率的に抽出する新しいモデルを提案する。
提案モデルは3つの主要ネットワークから成り,造語生成器,判別器,コンビネータを用いて,適応型アテンションモジュールを実現するために,敵対的な学習環境において訓練を行う。
論文 参考訳(メタデータ) (2021-02-18T04:10:12Z) - Modeling Score Distributions and Continuous Covariates: A Bayesian
Approach [8.772459063453285]
連続共変量に対するマッチングと非マッチスコア分布の生成モデルを構築した。
混合モデルを用いて任意の分布と局所基底関数をキャプチャする。
提案手法の精度と有効性を示す3つの実験を行った。
論文 参考訳(メタデータ) (2020-09-21T02:41:20Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。