論文の概要: A Peek at Peak Emotion Recognition
- arxiv url: http://arxiv.org/abs/2205.09791v1
- Date: Thu, 19 May 2022 18:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 16:03:18.483386
- Title: A Peek at Peak Emotion Recognition
- Title(参考訳): ピーク時の感情認識を垣間見る
- Authors: Tzvi Michelson, Hillel Aviezer, Shmuel Peleg
- Abstract要約: ディープラーニングモデルから抽出した特徴は、人間よりもはるかに優れた結果が得られることがわかった。
ディープラーニングモデルは、人間がタグ付けしたデータセットのみを訓練しても、このタスクでは人間よりも優れています。
- 参考スコア(独自算出の注目度): 4.3400407844814985
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite much progress in the field of facial expression recognition, little
attention has been paid to the recognition of peak emotion. Aviezer et al. [1]
showed that humans have trouble discerning between positive and negative peak
emotions. In this work we analyze how deep learning fares on this challenge. We
find that (i) despite using very small datasets, features extracted from deep
learning models can achieve results significantly better than humans. (ii) We
find that deep learning models, even when trained only on datasets tagged by
humans, still outperform humans in this task.
- Abstract(参考訳): 表情認識の分野での進歩にもかかわらず、ピーク感情の認識にはほとんど注意が払われていない。
Aviezerなど。
[1]では,ヒトは正のピーク感情と負のピーク感情の区別が困難であった。
本研究では,この課題に対する深層学習の効果を分析する。
私たちはそれを見つけ
(i)非常に小さなデータセットを用いているにもかかわらず、ディープラーニングモデルから抽出した特徴は人間よりもはるかに優れた結果が得られる。
(ii) 深層学習モデルは、人間によってタグ付けされたデータセットのみを訓練しても、このタスクでは人間よりも優れています。
関連論文リスト
- Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - A cross-corpus study on speech emotion recognition [29.582678406878568]
本研究では,行動感情から学習した情報が,自然感情の検出に有用かどうかを検討する。
成人英語の4つのデータセットは、行動的、誘惑的、自然な感情をカバーしている。
性能劣化を正確に調査するための最先端モデルを提案する。
論文 参考訳(メタデータ) (2022-07-05T15:15:22Z) - Towards a General Deep Feature Extractor for Facial Expression
Recognition [5.012963825796511]
本稿では,他の顔の感情認識タスクやデータセットに適用可能な,視覚的特徴抽出器を学習する,新たなディープラーニングベースのアプローチを提案する。
DeepFEVERは、AffectNetとGoogle Facial Expression Comparisonデータセットで最先端の結果を上回っている。
論文 参考訳(メタデータ) (2022-01-19T18:42:23Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Comparing Facial Expression Recognition in Humans and Machines: Using
CAM, GradCAM, and Extremal Perturbation [5.025654873456756]
表情認識(FER)は、心理学と機械学習の両方において重要な研究を惹きつけるトピックである。
本研究では,2段階の強制選択課題における人間と機械の認識性能と注意パターンを比較した。
論文 参考訳(メタデータ) (2021-10-09T06:54:41Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。