論文の概要: Direct Classification of Emotional Intensity
- arxiv url: http://arxiv.org/abs/2011.07460v1
- Date: Sun, 15 Nov 2020 06:32:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 06:46:36.472414
- Title: Direct Classification of Emotional Intensity
- Title(参考訳): 感情の強さの直接分類
- Authors: Jacob Ouyang, Isaac R Galatzer-Levy, Vidya Koesmahargyo, Li Zhang
- Abstract要約: 我々は、0から10までの強度スコアを出力する、さまざまな人の笑顔のビデオを使用して、モデルをトレーニングする。
そこで,本モデルは適応学習技術を用いて,新しい科目を扱う際の性能を向上させる。
- 参考スコア(独自算出の注目度): 4.360819666001918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a model that can directly predict emotion intensity
score from video inputs, instead of deriving from action units. Using a 3d DNN
incorporated with dynamic emotion information, we train a model using videos of
different people smiling that outputs an intensity score from 0-10. Each video
is labeled framewise using a normalized action-unit based intensity score. Our
model then employs an adaptive learning technique to improve performance when
dealing with new subjects. Compared to other models, our model excels in
generalization between different people as well as provides a new framework to
directly classify emotional intensity.
- Abstract(参考訳): 本稿では、アクション単位から導出するのではなく、映像入力から感情強度スコアを直接予測できるモデルを提案する。
動的感情情報を組み込んだ3次元DNNを用いて、0-10から強度スコアを出力する異なる人のビデオを用いてモデルを訓練する。
各ビデオは、正規化されたアクションユニットベースの強度スコアを使用してフレーム単位でラベル付けされる。
このモデルでは,適応型学習手法を用いて,新しい課題の処理性能を向上させる。
他のモデルと比較して、我々のモデルは異なる人物間の一般化に優れており、感情の強さを直接分類する新しい枠組みを提供する。
関連論文リスト
- Helping Hands: An Object-Aware Ego-Centric Video Recognition Model [60.350851196619296]
オブジェクト認識デコーダを導入し、エゴ中心の動画におけるエゴ中心の表現の性能を向上させる。
このモデルは,エゴ認識ビデオモデルの代替として機能し,視覚テキストのグラウンド化による性能向上を図っている。
論文 参考訳(メタデータ) (2023-08-15T17:58:11Z) - Computer Vision Estimation of Emotion Reaction Intensity in the Wild [1.5481864635049696]
本稿では,新たに導入された感情反応強度(ERI)推定課題について述べる。
視覚領域で訓練された4つのディープニューラルネットワークと、感情反応強度を予測するために視覚的特徴と音声的特徴の両方で訓練されたマルチモーダルモデルを開発した。
論文 参考訳(メタデータ) (2023-03-19T19:09:41Z) - Learning Neural Volumetric Representations of Dynamic Humans in Minutes [49.10057060558854]
本稿では,視覚的品質の競争力のある映像から,ダイナミックな人間のニューラルボリューム映像を学習するための新しい手法を提案する。
具体的には、ネットワークの表現力をよりよく人体に分散させるために、新しい部分ベースのボクセル化人間表現を定義する。
実験により,従来のシーンごとの最適化手法よりも100倍高速に学習できることが実証された。
論文 参考訳(メタデータ) (2023-02-23T18:57:01Z) - Interaction Region Visual Transformer for Egocentric Action Anticipation [18.873728614415946]
本研究では,エゴセントリックな行動予測のための人間と物体の相互作用を表現する新しい手法を提案する。
空間的クロスアテンションを用いた手と物体の相互作用をモデル化する。
次に,トラジェクトリ・クロス・アテンションを用いてコンテキスト情報を注入し,環境に合った対話トークンを得る。
これらのトークンを用いて,アクション予測のためのインタラクション中心のビデオ表現を構築する。
論文 参考訳(メタデータ) (2022-11-25T15:00:51Z) - Recognizing Emotions evoked by Movies using Multitask Learning [3.4290619267487488]
誘発感情を認識する方法は通常、人間の注釈付きデータに基づいて訓練される。
本稿では,Single-Task (ST) アーキテクチャとMulti-Task (MT) アーキテクチャの2つのディープラーニングアーキテクチャを提案する。
以上の結果から,MT手法は,アグリゲートアノテーションを直接訓練した手法と比較して,各ビューアとアグリゲートアノテーションをより正確にモデル化できることがわかった。
論文 参考訳(メタデータ) (2021-07-30T10:21:40Z) - Learning Local Recurrent Models for Human Mesh Recovery [50.85467243778406]
本稿では,人間のメッシュを標準的な骨格モデルに従って複数の局所的に分割するビデオメッシュ復元手法を提案する。
次に、各局所部分の力学を別個のリカレントモデルでモデル化し、各モデルは、人体の既知の運動構造に基づいて適切に条件付けする。
これにより、構造的インフォームドな局所的再帰学習アーキテクチャが実現され、アノテーションを使ってエンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-07-27T14:30:33Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。