論文の概要: Generative Technology for Human Emotion Recognition: A Scope Review
- arxiv url: http://arxiv.org/abs/2407.03640v1
- Date: Thu, 4 Jul 2024 05:22:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 19:11:48.477753
- Title: Generative Technology for Human Emotion Recognition: A Scope Review
- Title(参考訳): 人間の感情認識のための生成技術:スコープレビュー
- Authors: Fei Ma, Yucheng Yuan, Yifan Xie, Hongwei Ren, Ivan Liu, Ying He, Fuji Ren, Fei Richard Yu, Shiguang Ni,
- Abstract要約: 本調査は,2024年6月までに320以上の研究論文を総合的に分析し,既存の文献のギャップを埋めることを目的としている。
異なる生成モデルと一般的に使用されるデータセットの数学的原理を導入する。
様々なモダリティに基づいて、生成技術がどのように感情認識に対処するかを詳細に分析する。
- 参考スコア(独自算出の注目度): 11.578408396744237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Affective computing stands at the forefront of artificial intelligence (AI), seeking to imbue machines with the ability to comprehend and respond to human emotions. Central to this field is emotion recognition, which endeavors to identify and interpret human emotional states from different modalities, such as speech, facial images, text, and physiological signals. In recent years, important progress has been made in generative models, including Autoencoder, Generative Adversarial Network, Diffusion Model, and Large Language Model. These models, with their powerful data generation capabilities, emerge as pivotal tools in advancing emotion recognition. However, up to now, there remains a paucity of systematic efforts that review generative technology for emotion recognition. This survey aims to bridge the gaps in the existing literature by conducting a comprehensive analysis of over 320 research papers until June 2024. Specifically, this survey will firstly introduce the mathematical principles of different generative models and the commonly used datasets. Subsequently, through a taxonomy, it will provide an in-depth analysis of how generative techniques address emotion recognition based on different modalities in several aspects, including data augmentation, feature extraction, semi-supervised learning, cross-domain, etc. Finally, the review will outline future research directions, emphasizing the potential of generative models to advance the field of emotion recognition and enhance the emotional intelligence of AI systems.
- Abstract(参考訳): Affective Computingは人工知能(AI)の最前線に立っており、人間の感情を理解して反応する能力を持つ機械を開発しようとしている。
この分野の中心は感情認識であり、音声、顔画像、テキスト、生理的信号など、異なるモードから人間の感情状態を特定し、解釈する試みである。
近年,Autoencoder,Generative Adversarial Network,Diffusion Model,Large Language Modelなど,生成モデルにおいて重要な進展が見られた。
これらのモデルは、強力なデータ生成能力を持ち、感情認識の進歩において重要なツールとして登場します。
しかし、現在に至るまで、感情認識のための生成技術を見直すための体系的な努力が残されている。
本調査は,2024年6月までに320以上の研究論文を総合的に分析し,既存の文献のギャップを埋めることを目的としている。
具体的には、まず、異なる生成モデルと一般的に使用されるデータセットの数学的原理を紹介する。
その後、分類学を通じて、データ強化、特徴抽出、半教師付き学習、クロスドメインなど、様々な側面において、様々なモーダル性に基づいて生成技術がどのように感情認識に対処するかを詳細に分析する。
最後に、このレビューは将来の研究の方向性を概説し、生成モデルの可能性を強調し、感情認識の分野を前進させ、AIシステムの感情知性を高める。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - A Survey of Spatio-Temporal EEG data Analysis: from Models to Applications [20.54846023209402]
本調査は,脳活動の理解と解釈を変革するための新しい手法と技術に焦点を当てる。
我々は、脳信号の堅牢な表現を可能にする自己教師あり学習手法を探求する。
また,グラフニューラルネットワーク(GNN)や基礎モデル,大規模言語モデル(LLM)に基づくアプローチなど,新たな差別的手法についても検討する。
この調査は、これらの最先端技術、その応用、そして彼らが将来の研究および臨床実践に持つ深い影響について、広範囲にわたる概要を提供している。
論文 参考訳(メタデータ) (2024-09-26T08:09:15Z) - Emotion Detection through Body Gesture and Face [0.0]
このプロジェクトは、非顔の手がかり、特に手、身体のジェスチャー、ジェスチャーに焦点を当てることによる感情認識の課題に対処する。
従来の感情認識システムは、主に表情分析に依存しており、ボディランゲージを通して伝達される豊かな感情情報を無視することが多い。
このプロジェクトの目的は、マシンが人間の感情をより包括的でニュアンスな方法で解釈し、反応する能力を高めることで、感情コンピューティングの分野に貢献することにある。
論文 参考訳(メタデータ) (2024-07-13T15:15:50Z) - Deepfake Generation and Detection: A Benchmark and Survey [134.19054491600832]
Deepfakeは、特定の条件下で非常にリアルな顔画像やビデオを作成するための技術だ。
この調査は、ディープフェイクの発生と検出の最新の展開を包括的にレビューする。
本研究では, 顔交換, 顔再現, 話し顔生成, 顔属性編集の4つの代表的なディープフェイク分野の研究に焦点をあてる。
論文 参考訳(メタデータ) (2024-03-26T17:12:34Z) - Emotion Recognition from the perspective of Activity Recognition [0.0]
人間の感情状態、行動、反応を現実世界の環境に適応させることは、潜伏した連続した次元を用いて達成できる。
感情認識システムが現実のモバイルおよびコンピューティングデバイスにデプロイされ統合されるためには、世界中の収集されたデータを考慮する必要がある。
本稿では,注目機構を備えた新しい3ストリームエンドツーエンドのディープラーニング回帰パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-24T18:53:57Z) - Real-time EEG-based Emotion Recognition Model using Principal Component
Analysis and Tree-based Models for Neurohumanities [0.0]
本研究は,没入空間内における文脈の学習過程における情緒的モニタリングを取り入れたソリューションを提案する。
脳波に基づくリアルタイム感情検出システムは、特定の感情を解釈し分類するために開発された。
このシステムは、感情データをインタラクティブなプラットフォームに統合し、包括的で没入的な学習環境を構築することを目的としている。
論文 参考訳(メタデータ) (2024-01-28T20:02:13Z) - Synthesizing Affective Neurophysiological Signals Using Generative
Models: A Review Paper [28.806992102323324]
マシンにおける感情的知性の統合は、人間とコンピュータの相互作用を前進させる重要なステップである。
公的な感情的データセットの不足は、課題である。
我々は、神経生理学的信号におけるこの問題に対処するための生成モデルの使用を強調した。
論文 参考訳(メタデータ) (2023-06-05T08:38:30Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Computational Emotion Analysis From Images: Recent Advances and Future
Directions [79.05003998727103]
本章では,画像感情分析(IEA)を計算的観点から導入することを目的としている。
心理学の一般的な感情表現モデルから始めます。
そして、研究者たちが解決しようとしている重要な計算問題を定義します。
論文 参考訳(メタデータ) (2021-03-19T13:33:34Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。