論文の概要: Fuzzy Approach for Audio-Video Emotion Recognition in Computer Games for
Children
- arxiv url: http://arxiv.org/abs/2309.00138v1
- Date: Thu, 31 Aug 2023 21:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 15:10:10.364980
- Title: Fuzzy Approach for Audio-Video Emotion Recognition in Computer Games for
Children
- Title(参考訳): 子ども向けコンピュータゲームにおける音声映像感情認識のためのファジィアプローチ
- Authors: Pavel Kozlov, Alisher Akram, Pakizar Shamoi
- Abstract要約: 本稿では,音声およびビデオデータの解析を通じて,感情認識のためのファジィアプローチを統合する新しいフレームワークを提案する。
FERデータセットを用いて、ゲーム中に画面から記録された映像フレームの顔の感情を検出する。
ゲーム中に子どもが生み出す音声の感情認識には、CREMA-D, TESS, RAVDESS, Saveeのデータセットを使用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer games are widespread nowadays and enjoyed by people of all ages. But
when it comes to kids, playing these games can be more than just fun, it is a
way for them to develop important skills and build emotional intelligence.
Facial expressions and sounds that kids produce during gameplay reflect their
feelings, thoughts, and moods. In this paper, we propose a novel framework that
integrates a fuzzy approach for the recognition of emotions through the
analysis of audio and video data. Our focus lies within the specific context of
computer games tailored for children, aiming to enhance their overall user
experience. We use the FER dataset to detect facial emotions in video frames
recorded from the screen during the game. For the audio emotion recognition of
sounds a kid produces during the game, we use CREMA-D, TESS, RAVDESS, and Savee
datasets. Next, a fuzzy inference system is used for the fusion of results.
Besides this, our system can detect emotion stability and emotion diversity
during gameplay, which, together with prevailing emotion report, can serve as
valuable information for parents worrying about the effect of certain games on
their kids. The proposed approach has shown promising results in the
preliminary experiments we conducted, involving 3 different video games, namely
fighting, racing, and logic games, and providing emotion-tracking results for
kids in each game. Our study can contribute to the advancement of
child-oriented game development, which is not only engaging but also accounts
for children's cognitive and emotional states.
- Abstract(参考訳): コンピュータゲームは近年広く普及し、あらゆる年齢の人々が楽しんでいる。
しかし、子どもたちにとって、これらのゲームは単なる楽しいだけでなく、重要なスキルを開発し、感情的な知性を構築するための手段でもある。
子供たちがゲームプレイ中に生み出す表情や音は、感情、思考、気分を反映している。
本稿では,音声およびビデオデータの解析を通じて,感情認識のためのファジィアプローチを統合する新しいフレームワークを提案する。
私たちの焦点は、子ども向けのコンピュータゲームの特定のコンテキストに置かれており、ユーザー体験の全体的な向上を目的としています。
FERデータセットを用いて、ゲーム中に画面から記録された映像フレームの顔の感情を検出する。
ゲーム中に子どもが生み出す音声の感情認識には、CREMA-D, TESS, RAVDESS, Saveeのデータセットを使用する。
次に、結果を融合するためにファジィ推論システムを用いる。
さらに,ゲームプレイ中の感情の安定性や感情の多様性を検知し,一般的な感情報告とともに,特定のゲームが子どもに与える影響を心配する親にとって有用な情報となる。
提案手法は,3つの異なるゲーム,例えばファイト,レース,ロジックゲーム,各ゲームにおける子どもの感情追跡結果などを含む予備実験において,有望な結果を示した。
本研究は,子どもの認知的,感情的な状態に対する関与だけでなく,子ども向けゲーム開発の発展に寄与する。
関連論文リスト
- Audio-Driven Emotional 3D Talking-Head Generation [47.6666060652434]
本稿では,高精度な感情表現による高忠実・音声駆動型映像像の合成システムを提案する。
本研究では,無声音声入力に応答して自然なアイドル状態(非話者)ビデオを生成するポーズサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T08:23:05Z) - EmoFace: Audio-driven Emotional 3D Face Animation [3.573880705052592]
EmoFaceは、鮮やかな感情的ダイナミクスを備えた顔アニメーションを作成するための、新しいオーディオ駆動の方法論である。
提案手法では,複数の感情で表情を生成でき,ランダムだが自然な点滅や眼球運動を生成できる。
提案手法は、ビデオゲームでプレイ不可能なキャラクターの対話アニメーションを作成し、バーチャルリアリティ環境でアバターを駆動するのに有効である。
論文 参考訳(メタデータ) (2024-07-17T11:32:16Z) - Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - The Emotional Impact of Game Duration: A Framework for Understanding Player Emotions in Extended Gameplay Sessions [3.082802504891278]
本研究の目的は,プレイヤーの感情がゲーム継続時間にどのように影響するかを検討することである。
短いゲームプレイセッションと比較して、この実験では、延長されたゲームプレイセッションがプレイヤーの感情に大きな影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2024-03-31T02:01:05Z) - Facial Emotion Recognition in VR Games [2.5382095320488665]
我々は、畳み込みニューラルネットワーク(CNN)を用いて、目とまぶたがカバーされているフルフェイス画像の感情を予測するモデルを訓練する。
これらの画像のモデルは、怒り、幸福、嫌悪、恐怖、不公平、悲しみ、驚きの7つの異なる感情を正確に認識することができる。
ゲームプレイ中にプレイヤーがどのような感情を経験しているかを理解するために,実験から収集したデータを分析した。
論文 参考訳(メタデータ) (2023-12-12T01:40:14Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Audio-Driven Emotional Video Portraits [79.95687903497354]
Emotional Video Portraits(EVP)は、オーディオによって駆動される鮮やかな感情的なダイナミクスで高品質のビデオポートレートを合成するシステムです。
具体的には,音声を2つの分離空間に分解するクロスリコンストラクテッド感情不等角化手法を提案する。
ゆがんだ特徴によって、動的2D感情的な顔のランドマークは推定することができます。
次に,最終的な高品質映像画像を生成するために,ターゲット適応型顔合成手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T13:37:13Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Improved Digital Therapy for Developmental Pediatrics Using Domain-Specific Artificial Intelligence: Machine Learning Study [5.258326585054865]
自動的な感情分類は、自閉症のような発達的な行動状態の子供を含む感情を認識するのに苦労する人々を助けることができる。
ほとんどのコンピュータビジョンの感情認識モデルは成人の感情に基づいて訓練されているため、子供の顔に適用された場合、性能は低下する。
本研究では,児童感情認識モデルの性能を高めるために,児童感情強調画像の収集とラベル付けをゲーミフィケーションする戦略を考案した。
論文 参考訳(メタデータ) (2020-12-16T00:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。