論文の概要: Domain Adaptation based Technique for Image Emotion Recognition using
Pre-trained Facial Expression Recognition Models
- arxiv url: http://arxiv.org/abs/2011.08388v1
- Date: Tue, 17 Nov 2020 02:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 16:12:13.170571
- Title: Domain Adaptation based Technique for Image Emotion Recognition using
Pre-trained Facial Expression Recognition Models
- Title(参考訳): 事前訓練された表情認識モデルを用いた領域適応に基づく画像認識手法
- Authors: Puneet Kumar and Balasubramanian Raman
- Abstract要約: 我々は,顔,非顔,非人的成分を含む画像中の感情を認識するための領域適応に基づく手法を提案する。
我々はまた, 区間スコアの観点から, 提案するシステムの予測を説明する新しい手法も提案している。
- 参考スコア(独自算出の注目度): 18.519864549913695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, a domain adaptation based technique for recognizing the
emotions in images containing facial, non-facial, and non-human components has
been proposed. We have also proposed a novel technique to explain the proposed
system's predictions in terms of Intersection Score. Image emotion recognition
is useful for graphics, gaming, animation, entertainment, and cinematography.
However, well-labeled large scale datasets and pre-trained models are not
available for image emotion recognition. To overcome this challenge, we have
proposed a deep learning approach based on an attentional convolutional network
that adapts pre-trained facial expression recognition models. It detects the
visual features of an image and performs emotion classification based on them.
The experiments have been performed on the Flickr image dataset, and the images
have been classified in 'angry,' 'happy,' 'sad,' and 'neutral' emotion classes.
The proposed system has demonstrated better performance than the benchmark
results with an accuracy of 63.87% for image emotion recognition. We have also
analyzed the embedding plots for various emotion classes to explain the
proposed system's predictions.
- Abstract(参考訳): 本稿では,顔,非顔,非人的成分を含む画像の感情認識のための領域適応に基づく手法を提案する。
我々はまた, 区間スコアの観点から, 提案するシステムの予測を説明する新しい手法も提案している。
イメージ感情認識は、グラフィック、ゲーム、アニメーション、エンターテイメント、映画撮影に有用である。
しかし、十分にラベルされた大規模データセットと事前学習されたモデルは、画像感情認識には使用できない。
この課題を克服するために,事前学習した表情認識モデルに適応する注目畳み込みネットワークに基づく深層学習手法を提案する。
画像の視覚的特徴を検出し、それらに基づいて感情分類を行う。
実験はFlickrの画像データセット上で行われ、画像は"angry"、"happy"、"sad"、"neutral"の感情クラスに分類されている。
提案システムは、画像の感情認識に63.87%の精度でベンチマーク結果よりも優れた性能を示した。
また,提案システムの予測を説明するために,様々な感情クラスの埋め込みプロットを分析した。
関連論文リスト
- Emotion Detection through Body Gesture and Face [0.0]
このプロジェクトは、非顔の手がかり、特に手、身体のジェスチャー、ジェスチャーに焦点を当てることによる感情認識の課題に対処する。
従来の感情認識システムは、主に表情分析に依存しており、ボディランゲージを通して伝達される豊かな感情情報を無視することが多い。
このプロジェクトの目的は、マシンが人間の感情をより包括的でニュアンスな方法で解釈し、反応する能力を高めることで、感情コンピューティングの分野に貢献することにある。
論文 参考訳(メタデータ) (2024-07-13T15:15:50Z) - Alleviating Catastrophic Forgetting in Facial Expression Recognition with Emotion-Centered Models [49.3179290313959]
感情中心型生成的リプレイ (ECgr) は, 生成的対向ネットワークから合成画像を統合することで, この課題に対処する。
ECgrは、生成された画像の忠実性を保証するために品質保証アルゴリズムを組み込んでいる。
4つの多様な表情データセットに対する実験結果から,擬似リハーサル法により生成されたイメージを組み込むことで,ターゲットとするデータセットとソースデータセットのトレーニングが促進されることが示された。
論文 参考訳(メタデータ) (2024-04-18T15:28:34Z) - Music Recommendation Based on Facial Emotion Recognition [0.0]
本稿では,GRAD-CAMを用いた感情認識,音楽レコメンデーション,説明可能なAIの統合によるユーザエクスペリエンス向上のための包括的アプローチを提案する。
提案手法は、表情認識データセットに基づいて訓練されたResNet50モデルを用いて、様々な感情を表現している個人の実像からなる。
論文 参考訳(メタデータ) (2024-04-06T15:14:25Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - PERI: Part Aware Emotion Recognition In The Wild [4.206175795966693]
本稿では視覚的特徴を用いた感情認識に焦点を当てる。
身体のポーズと顔のランドマークの両方から生成されたマスクを用いて、入力画像からキー領域を抽出し、部分認識空間(PAS)画像を作成する。
野生のEMOTICデータセットで公開されている結果について報告する。
論文 参考訳(メタデータ) (2022-10-18T20:01:40Z) - Interpretable Multimodal Emotion Recognition using Hybrid Fusion of
Speech and Image Data [15.676632465869346]
特定の感情のクラスの予測に繋がる重要な音声・画像の特徴を識別する新しい解釈可能性技術を開発した。
提案システムは感情認識の精度を83.29%向上させた。
論文 参考訳(メタデータ) (2022-08-25T04:43:34Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。