論文の概要: Computational Emotion Analysis From Images: Recent Advances and Future
Directions
- arxiv url: http://arxiv.org/abs/2103.10798v1
- Date: Fri, 19 Mar 2021 13:33:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:40:51.764881
- Title: Computational Emotion Analysis From Images: Recent Advances and Future
Directions
- Title(参考訳): 画像からの計算感情分析:最近の進歩と今後の展開
- Authors: Sicheng Zhao, Quanwei Huang, Youbao Tang, Xingxu Yao, Jufeng Yang,
Guiguang Ding, Bj\"orn W. Schuller
- Abstract要約: 本章では,画像感情分析(IEA)を計算的観点から導入することを目的としている。
心理学の一般的な感情表現モデルから始めます。
そして、研究者たちが解決しようとしている重要な計算問題を定義します。
- 参考スコア(独自算出の注目度): 79.05003998727103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotions are usually evoked in humans by images. Recently, extensive research
efforts have been dedicated to understanding the emotions of images. In this
chapter, we aim to introduce image emotion analysis (IEA) from a computational
perspective with the focus on summarizing recent advances and suggesting future
directions. We begin with commonly used emotion representation models from
psychology. We then define the key computational problems that the researchers
have been trying to solve and provide supervised frameworks that are generally
used for different IEA tasks. After the introduction of major challenges in
IEA, we present some representative methods on emotion feature extraction,
supervised classifier learning, and domain adaptation. Furthermore, we
introduce available datasets for evaluation and summarize some main results.
Finally, we discuss some open questions and future directions that researchers
can pursue.
- Abstract(参考訳): 通常、人間の感情はイメージによって引き起こされる。
近年,画像の感情を理解するための研究が盛んに行われている。
本章では,最近の進歩を要約し,今後の方向性を示唆することに着目し,計算的視点からイメージ感情分析(IEA)を導入することを目的とする。
心理学の一般的な感情表現モデルから始めます。
次に、研究者が解決しようとしている重要な計算問題を定義し、一般的に異なるIEAタスクに使用される教師付きフレームワークを提供する。
IEAでの大きな課題が導入された後、感情の特徴抽出、教師付き分類器学習、ドメイン適応に関する代表的な手法を提示する。
さらに,評価のために利用可能なデータセットを導入し,主な結果を要約する。
最後に、研究者が追求できるいくつかのオープン質問と今後の方向性について論じる。
関連論文リスト
- Generative Technology for Human Emotion Recognition: A Scope Review [11.578408396744237]
本調査は,2024年6月までに320以上の研究論文を総合的に分析し,既存の文献のギャップを埋めることを目的としている。
異なる生成モデルと一般的に使用されるデータセットの数学的原理を導入する。
様々なモダリティに基づいて、生成技術がどのように感情認識に対処するかを詳細に分析する。
論文 参考訳(メタデータ) (2024-07-04T05:22:55Z) - Affection: Learning Affective Explanations for Real-World Visual Data [50.28825017427716]
我々は,85,007枚の公開画像に対して,感情反応と自由形式のテキスト説明を含む大規模データセットを研究コミュニティに導入し,共有する。
本研究は, 被写体集団に大きな支持を得て, 潜在的に有意な感情反応をとらえる上で, 重要な共通基盤があることを示唆する。
私たちの研究は、より豊かで、より人間中心で、感情に敏感な画像分析システムへの道を開くものです。
論文 参考訳(メタデータ) (2022-10-04T22:44:17Z) - EEG based Emotion Recognition: A Tutorial and Review [21.939910428589638]
脳波に基づく感情認識の科学的基礎を心理学的・生理学的に紹介する。
本稿では,これらのレビューを異なる技術経路に分類し,理論的基礎と研究モチベーションを説明する。
論文 参考訳(メタデータ) (2022-03-16T08:28:28Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。