論文の概要: Fuzzy Approach for Audio-Video Emotion Recognition in Computer Games for
Children
- arxiv url: http://arxiv.org/abs/2309.00138v1
- Date: Thu, 31 Aug 2023 21:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 15:10:10.364980
- Title: Fuzzy Approach for Audio-Video Emotion Recognition in Computer Games for
Children
- Title(参考訳): 子ども向けコンピュータゲームにおける音声映像感情認識のためのファジィアプローチ
- Authors: Pavel Kozlov, Alisher Akram, Pakizar Shamoi
- Abstract要約: 本稿では,音声およびビデオデータの解析を通じて,感情認識のためのファジィアプローチを統合する新しいフレームワークを提案する。
FERデータセットを用いて、ゲーム中に画面から記録された映像フレームの顔の感情を検出する。
ゲーム中に子どもが生み出す音声の感情認識には、CREMA-D, TESS, RAVDESS, Saveeのデータセットを使用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer games are widespread nowadays and enjoyed by people of all ages. But
when it comes to kids, playing these games can be more than just fun, it is a
way for them to develop important skills and build emotional intelligence.
Facial expressions and sounds that kids produce during gameplay reflect their
feelings, thoughts, and moods. In this paper, we propose a novel framework that
integrates a fuzzy approach for the recognition of emotions through the
analysis of audio and video data. Our focus lies within the specific context of
computer games tailored for children, aiming to enhance their overall user
experience. We use the FER dataset to detect facial emotions in video frames
recorded from the screen during the game. For the audio emotion recognition of
sounds a kid produces during the game, we use CREMA-D, TESS, RAVDESS, and Savee
datasets. Next, a fuzzy inference system is used for the fusion of results.
Besides this, our system can detect emotion stability and emotion diversity
during gameplay, which, together with prevailing emotion report, can serve as
valuable information for parents worrying about the effect of certain games on
their kids. The proposed approach has shown promising results in the
preliminary experiments we conducted, involving 3 different video games, namely
fighting, racing, and logic games, and providing emotion-tracking results for
kids in each game. Our study can contribute to the advancement of
child-oriented game development, which is not only engaging but also accounts
for children's cognitive and emotional states.
- Abstract(参考訳): コンピュータゲームは近年広く普及し、あらゆる年齢の人々が楽しんでいる。
しかし、子どもたちにとって、これらのゲームは単なる楽しいだけでなく、重要なスキルを開発し、感情的な知性を構築するための手段でもある。
子供たちがゲームプレイ中に生み出す表情や音は、感情、思考、気分を反映している。
本稿では,音声およびビデオデータの解析を通じて,感情認識のためのファジィアプローチを統合する新しいフレームワークを提案する。
私たちの焦点は、子ども向けのコンピュータゲームの特定のコンテキストに置かれており、ユーザー体験の全体的な向上を目的としています。
FERデータセットを用いて、ゲーム中に画面から記録された映像フレームの顔の感情を検出する。
ゲーム中に子どもが生み出す音声の感情認識には、CREMA-D, TESS, RAVDESS, Saveeのデータセットを使用する。
次に、結果を融合するためにファジィ推論システムを用いる。
さらに,ゲームプレイ中の感情の安定性や感情の多様性を検知し,一般的な感情報告とともに,特定のゲームが子どもに与える影響を心配する親にとって有用な情報となる。
提案手法は,3つの異なるゲーム,例えばファイト,レース,ロジックゲーム,各ゲームにおける子どもの感情追跡結果などを含む予備実験において,有望な結果を示した。
本研究は,子どもの認知的,感情的な状態に対する関与だけでなく,子ども向けゲーム開発の発展に寄与する。
関連論文リスト
- Facial Emotion Recognition in VR Games [2.5382095320488665]
我々は、畳み込みニューラルネットワーク(CNN)を用いて、目とまぶたがカバーされているフルフェイス画像の感情を予測するモデルを訓練する。
これらの画像のモデルは、怒り、幸福、嫌悪、恐怖、不公平、悲しみ、驚きの7つの異なる感情を正確に認識することができる。
ゲームプレイ中にプレイヤーがどのような感情を経験しているかを理解するために,実験から収集したデータを分析した。
論文 参考訳(メタデータ) (2023-12-12T01:40:14Z) - Exploring Emotion Expression Recognition in Older Adults Interacting
with a Virtual Coach [22.00225071959289]
EMPATHICプロジェクトは、健康な高齢者が健康を改善し、自立した高齢化を促進することができる感情表現型バーチャルコーチを設計することを目的としている。
本稿では,仮想コーチの感情表現認識モジュールの開発について概説し,データ収集,アノテーション設計,第1の方法論的アプローチについて述べる。
論文 参考訳(メタデータ) (2023-11-09T18:22:32Z) - Interpretable Explainability in Facial Emotion Recognition and
Gamification for Data Collection [0.0]
顔の感情認識モデルを訓練するには、大量のデータと高価なアノテーションプロセスが必要である。
我々は,人間の明示的なラベル付けを行なわずに,注釈付き顔感情データを取得するゲーミフィケーション手法を開発した。
プレイヤーの表情認知能力と表情能力は,繰り返しゲームプレイによって著しく向上した。
論文 参考訳(メタデータ) (2022-11-09T09:53:48Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Affection: Learning Affective Explanations for Real-World Visual Data [50.28825017427716]
我々は,85,007枚の公開画像に対して,感情反応と自由形式のテキスト説明を含む大規模データセットを研究コミュニティに導入し,共有する。
本研究は, 被写体集団に大きな支持を得て, 潜在的に有意な感情反応をとらえる上で, 重要な共通基盤があることを示唆する。
私たちの研究は、より豊かで、より人間中心で、感情に敏感な画像分析システムへの道を開くものです。
論文 参考訳(メタデータ) (2022-10-04T22:44:17Z) - AHD ConvNet for Speech Emotion Classification [0.0]
本稿では,一般的なCREMA-Dデータセットにおいて,与えられたwav形式の音声ノートから感情を学習するためのデータポイントを用いた新しいメルスペクトル学習手法を提案する。
感情音声認識の課題に対処するために用いられた他のアプローチと比較して、トレーニング時間が短縮された。
論文 参考訳(メタデータ) (2022-06-10T11:57:28Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Audio-Driven Emotional Video Portraits [79.95687903497354]
Emotional Video Portraits(EVP)は、オーディオによって駆動される鮮やかな感情的なダイナミクスで高品質のビデオポートレートを合成するシステムです。
具体的には,音声を2つの分離空間に分解するクロスリコンストラクテッド感情不等角化手法を提案する。
ゆがんだ特徴によって、動的2D感情的な顔のランドマークは推定することができます。
次に,最終的な高品質映像画像を生成するために,ターゲット適応型顔合成手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T13:37:13Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Training an Emotion Detection Classifier using Frames from a Mobile
Therapeutic Game for Children with Developmental Disorders [4.625468113840807]
自動感情分類は、自閉症などの発達的行動条件を持つ子供を含む感情認識に苦しむ人々を助ける可能性がある。
ほとんどのコンピュータビジョン感情モデルは、成人の影響を訓練され、したがって子供の顔にパフォーマンスが低下します。
我々は,児童感情自動検出の性能を高めるために,児童感情データの収集とラベル付けをゲーム化する戦略を考案した。
論文 参考訳(メタデータ) (2020-12-16T00:08:51Z) - An End-to-End Visual-Audio Attention Network for Emotion Recognition in
User-Generated Videos [64.91614454412257]
畳み込みニューラルネットワーク(CNN)に基づくエンドツーエンドの映像感情認識を提案する。
具体的には,空間的,チャネル的,時間的注意を視覚的に3D CNNに統合し,時間的注意をオーディオ2D CNNに組み込む新しいアーキテクチャである,深層ビジュアル・オーディオ・アテンション・ネットワーク(VAANet)を開発した。
論文 参考訳(メタデータ) (2020-02-12T15:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。