論文の概要: Domain Adaptation based Interpretable Image Emotion Recognition using
Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2011.08388v2
- Date: Wed, 7 Feb 2024 13:23:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 21:10:39.479868
- Title: Domain Adaptation based Interpretable Image Emotion Recognition using
Facial Expression Recognition
- Title(参考訳): 表情認識を用いたドメイン適応型解釈可能な画像感情認識
- Authors: Puneet Kumar and Balasubramanian Raman
- Abstract要約: 本稿では,顔と非顔と非人体成分を含む一般的な画像中の感情を識別するために,ドメイン適応手法を提案する。
これは、事前訓練されたモデルと、画像感情認識(IER)のための十分な注釈付きデータセットが不十分であることの課題に対処する。
まず、顔の感情認識(FER)システムを提案し、次に画像の感情認識に適応させる。
- 参考スコア(独自算出の注目度): 13.950116138578267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A domain adaptation technique has been proposed in this paper to identify the
emotions in generic images containing facial & non-facial objects and non-human
components. It addresses the challenge of the insufficient availability of
pre-trained models and well-annotated datasets for image emotion recognition
(IER). It starts with proposing a facial emotion recognition (FER) system and
then moves on to adapting it for image emotion recognition. First, a
deep-learning-based FER system has been proposed that classifies a given facial
image into discrete emotion classes. Further, an image recognition system has
been proposed that adapts the proposed FER system to recognize the emotions
portrayed by images using domain adaptation. It classifies the generic images
into 'happy,' 'sad,' 'hate,' and 'anger' classes. A novel interpretability
approach, Divide and Conquer based Shap (DnCShap), has also been proposed to
interpret the highly relevant visual features for emotion recognition. The
proposed system's architecture has been decided through ablation studies, and
the experiments are conducted on four FER and four IER datasets. The proposed
IER system has shown an emotion classification accuracy of 59.61% for the IAPSa
dataset, 57.83% for the ArtPhoto dataset, 67.93% for the FI dataset, and 55.13%
for the EMOTIC dataset. The important visual features leading to a particular
emotion class have been identified, and the embedding plots for various emotion
classes have been analyzed to explain the proposed system's predictions.
- Abstract(参考訳): 本稿では,顔と非顔と非人体成分を含む一般的な画像中の感情を識別する領域適応手法を提案する。
事前訓練されたモデルと、画像感情認識(IER)のための十分な注釈付きデータセットが不十分であることの課題に対処する。
まず、顔の感情認識(FER)システムを提案し、次に画像の感情認識に適応させる。
まず、ある顔画像を個別の感情クラスに分類する深層学習に基づくFERシステムを提案する。
さらに,提案するferシステムを用いて,画像に表現された感情をドメイン適応を用いて認識する画像認識システムを提案する。
ジェネリックイメージを'happy'、'sad'、'hate'、'anger'クラスに分類する。
新たな解釈可能性アプローチであるDivide and Conquer based Shap (DnCShap) も、感情認識に関連性の高い視覚的特徴を解釈するために提案されている。
システムアーキテクチャはアブレーション研究により決定され、4つのFERと4つのIERデータセットで実験が行われた。
提案されたIERシステムは、IAPSaデータセットで59.61%、ArtPhotoデータセットで57.83%、FIデータセットで67.93%、EMOTICデータセットで55.13%の感情分類精度を示した。
特定の感情クラスにつながる重要な視覚的特徴が同定され、様々な感情クラスの埋め込みプロットがシステムの予測を説明するために解析された。
関連論文リスト
- Emotion Detection through Body Gesture and Face [0.0]
このプロジェクトは、非顔の手がかり、特に手、身体のジェスチャー、ジェスチャーに焦点を当てることによる感情認識の課題に対処する。
従来の感情認識システムは、主に表情分析に依存しており、ボディランゲージを通して伝達される豊かな感情情報を無視することが多い。
このプロジェクトの目的は、マシンが人間の感情をより包括的でニュアンスな方法で解釈し、反応する能力を高めることで、感情コンピューティングの分野に貢献することにある。
論文 参考訳(メタデータ) (2024-07-13T15:15:50Z) - Alleviating Catastrophic Forgetting in Facial Expression Recognition with Emotion-Centered Models [49.3179290313959]
感情中心型生成的リプレイ (ECgr) は, 生成的対向ネットワークから合成画像を統合することで, この課題に対処する。
ECgrは、生成された画像の忠実性を保証するために品質保証アルゴリズムを組み込んでいる。
4つの多様な表情データセットに対する実験結果から,擬似リハーサル法により生成されたイメージを組み込むことで,ターゲットとするデータセットとソースデータセットのトレーニングが促進されることが示された。
論文 参考訳(メタデータ) (2024-04-18T15:28:34Z) - Music Recommendation Based on Facial Emotion Recognition [0.0]
本稿では,GRAD-CAMを用いた感情認識,音楽レコメンデーション,説明可能なAIの統合によるユーザエクスペリエンス向上のための包括的アプローチを提案する。
提案手法は、表情認識データセットに基づいて訓練されたResNet50モデルを用いて、様々な感情を表現している個人の実像からなる。
論文 参考訳(メタデータ) (2024-04-06T15:14:25Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - SAFER: Situation Aware Facial Emotion Recognition [0.0]
表情から感情を認識する新しいシステムであるSAFERを提案する。
最先端のディープラーニング技術を使って、顔画像からさまざまな特徴を抽出する。
目に見えない多様な表情に適応でき、現実世界の用途に適している。
論文 参考訳(メタデータ) (2023-06-14T20:42:26Z) - Interpretable Multimodal Emotion Recognition using Hybrid Fusion of
Speech and Image Data [15.676632465869346]
特定の感情のクラスの予測に繋がる重要な音声・画像の特徴を識別する新しい解釈可能性技術を開発した。
提案システムは感情認識の精度を83.29%向上させた。
論文 参考訳(メタデータ) (2022-08-25T04:43:34Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。