論文の概要: Multi-Branch Network for Imagery Emotion Prediction
- arxiv url: http://arxiv.org/abs/2312.07500v1
- Date: Tue, 12 Dec 2023 18:34:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 14:52:19.350441
- Title: Multi-Branch Network for Imagery Emotion Prediction
- Title(参考訳): 画像感情予測のためのマルチブランチネットワーク
- Authors: Quoc-Bao Ninh, Hai-Chan Nguyen, Triet Huynh, Trung-Nghia Le
- Abstract要約: 画像中の離散的感情と連続的感情の両方を予測する新しいマルチブランチネットワーク(MBN)を提案する。
提案手法は,mAPが28.4%,MAEが0.93で最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 4.618814297494939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For a long time, images have proved perfect at both storing and conveying
rich semantics, especially human emotions. A lot of research has been conducted
to provide machines with the ability to recognize emotions in photos of people.
Previous methods mostly focus on facial expressions but fail to consider the
scene context, meanwhile scene context plays an important role in predicting
emotions, leading to more accurate results. In addition,
Valence-Arousal-Dominance (VAD) values offer a more precise quantitative
understanding of continuous emotions, yet there has been less emphasis on
predicting them compared to discrete emotional categories. In this paper, we
present a novel Multi-Branch Network (MBN), which utilizes various source
information, including faces, bodies, and scene contexts to predict both
discrete and continuous emotions in an image. Experimental results on EMOTIC
dataset, which contains large-scale images of people in unconstrained
situations labeled with 26 discrete categories of emotions and VAD values, show
that our proposed method significantly outperforms state-of-the-art methods
with 28.4% in mAP and 0.93 in MAE. The results highlight the importance of
utilizing multiple contextual information in emotion prediction and illustrate
the potential of our proposed method in a wide range of applications, such as
effective computing, human-computer interaction, and social robotics. Source
code:
https://github.com/BaoNinh2808/Multi-Branch-Network-for-Imagery-Emotion-Prediction
- Abstract(参考訳): 画像は長い間、リッチセマンティクス、特に人間の感情の保存と伝達の両方に完璧であることが証明されてきた。
人々の写真に感情を認識できるマシンを提供するために、多くの研究がなされている。
以前の手法は主に表情に焦点を当てていたが、シーンコンテキストを考慮せず、シーンコンテキストは感情を予測する上で重要な役割を果たし、より正確な結果をもたらす。
さらに、Valence-Arousal-Dominance(VAD)の値は、連続的な感情をより正確に定量的に理解するが、離散的な感情カテゴリーと比較して、それらを予測することにはあまり重点を置いていない。
本稿では,顔,体,シーンコンテキストなどの様々な情報源情報を用いて,画像中の離散的感情と連続的感情の両方を予測する,新しいマルチブランチネットワーク(MBN)を提案する。
EMOTICデータセットは,26の個別の感情カテゴリとVAD値をラベル付けした制約のない状況下での人々の大規模な画像を含む実験結果から,提案手法は28.4%のmAP,0.93のMAEで最先端の手法を著しく上回ることを示した。
その結果、感情予測に複数の文脈情報を活用することの重要性を強調し、効率的な計算、人間とコンピュータの相互作用、社会ロボティクスなど、幅広い分野で提案手法の可能性を示す。
ソースコード:https://github.com/BaoNinh2808/Multi-Branch-Network-for-Imagery-Emotion-Prediction
関連論文リスト
- Using Scene and Semantic Features for Multi-modal Emotion Recognition [1.0152838128195467]
マルチモーダル感情認識には,シーンとセマンティックの併用と個人的特徴の併用を提案する。
修正されたEmbraceNetを使って画像から特徴を抽出し、身体と特徴を同時に学習する訓練を行っている。
その結果,26の感情カテゴリーで平均40.39%の精度が得られ,従来のアプローチに比べて5%改善した。
論文 参考訳(メタデータ) (2023-08-01T01:54:55Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - High-Level Context Representation for Emotion Recognition in Images [4.987022981158291]
画像から高レベルな文脈表現を抽出する手法を提案する。
このモデルは、この表現と感情を関連付けるために、1つのキューと1つのエンコードストリームに依存している。
我々のアプローチは従来のモデルよりも効率的であり、感情認識に関連する現実の問題に対処するために容易に展開できる。
論文 参考訳(メタデータ) (2023-05-05T13:20:41Z) - Performance Analysis and Evaluation of Cloud Vision Emotion APIs [0.0]
顔の感情の980イメージの公開データセットを用いて、よく知られた2つのAPIのパフォーマンスを比較した。
その結果,各感情の予測精度はクラウドサービスによって異なることがわかった。
論文 参考訳(メタデータ) (2023-03-23T00:47:43Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Emotion-Based End-to-End Matching Between Image and Music in
Valence-Arousal Space [80.49156615923106]
イメージと音楽に類似した感情を合わせることは、感情の知覚をより鮮明で強くするのに役立つ。
既存の感情に基づく画像と音楽のマッチング手法では、限られたカテゴリーの感情状態を使用するか、非現実的なマルチステージパイプラインを使用してマッチングモデルを訓練する。
本稿では,連続的原子価覚醒空間(VA)における感情に基づく画像と音楽のエンドツーエンドマッチングについて検討する。
論文 参考訳(メタデータ) (2020-08-22T20:12:23Z) - Context Based Emotion Recognition using EMOTIC Dataset [22.631542327834595]
EMOTIC(エモティック)は, 感情に注意を喚起された人々のイメージのデータセットである。
EMOTICデータセットを使用して、感情認識のためのさまざまなCNNモデルをトレーニングする。
その結果,情緒状態を自動的に認識するためにシーンコンテキストが重要な情報を提供することを示す。
論文 参考訳(メタデータ) (2020-03-30T12:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。