論文の概要: The BIRAFFE2 Experiment. Study in Bio-Reactions and Faces for
Emotion-based Personalization for AI Systems
- arxiv url: http://arxiv.org/abs/2007.15048v2
- Date: Mon, 9 Nov 2020 20:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 20:02:07.166072
- Title: The BIRAFFE2 Experiment. Study in Bio-Reactions and Faces for
Emotion-based Personalization for AI Systems
- Title(参考訳): BIRAFFE2実験。
AIシステムのための感情に基づくパーソナライズのためのバイオリアクションと顔に関する研究
- Authors: Krzysztof Kutt (1), Dominika Dr\k{a}\.zyk (1), Maciej Szel\k{a}\.zek
(2), Szymon Bobek (1), Grzegorz J. Nalepa (1) ((1) Jagiellonian University,
Poland, (2) AGH University of Science and Technology, Poland)
- Abstract要約: 異なる人物の感情的反応を捉えるための統一パラダイムを提案する。
機械学習手法のために、簡単に使用・開発できるフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper describes BIRAFFE2 data set, which is a result of an affective
computing experiment conducted between 2019 and 2020, that aimed to develop
computer models for classification and recognition of emotion. Such work is
important to develop new methods of natural Human-AI interaction. As we believe
that models of emotion should be personalized by design, we present an unified
paradigm allowing to capture emotional responses of different persons, taking
individual personality differences into account. We combine classical
psychological paradigms of emotional response collection with the newer
approach, based on the observation of the computer game player. By capturing
ones psycho-physiological reactions (ECG, EDA signal recording), mimic
expressions (facial emotion recognition), subjective valence-arousal balance
ratings (widget ratings) and gameplay progression (accelerometer and screencast
recording), we provide a framework that can be easily used and developed for
the purpose of the machine learning methods.
- Abstract(参考訳): BIRAFFE2データセットは、感情の分類と認識のためのコンピュータモデルを開発することを目的とした、2019年から2020年にかけて行われた感情コンピューティング実験の結果である。
このような研究は、自然とAIの相互作用の新しい手法を開発する上で重要である。
我々は、感情のモデルがデザインによってパーソナライズされるべきであると信じているため、個々の個性の違いを考慮して、異なる人の感情的反応を捉えることができる統一パラダイムを提案する。
我々は,コンピュータゲームプレイヤの観察に基づく感情応答収集の古典心理学的パラダイムと,より新しいアプローチを組み合わせる。
心理生理学的反応(ECG, EDA信号記録), 表情の模倣(表情認識), 主観的原子価覚醒的バランス評価(ウィジェット評価), ゲームプレイ進行(加速度計, スクリーンキャスト記録)を捉えることにより, 機械学習手法のために容易に利用し, 開発できる枠組みを提供する。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Real-time EEG-based Emotion Recognition Model using Principal Component
Analysis and Tree-based Models for Neurohumanities [0.0]
本研究は,没入空間内における文脈の学習過程における情緒的モニタリングを取り入れたソリューションを提案する。
脳波に基づくリアルタイム感情検出システムは、特定の感情を解釈し分類するために開発された。
このシステムは、感情データをインタラクティブなプラットフォームに統合し、包括的で没入的な学習環境を構築することを目的としている。
論文 参考訳(メタデータ) (2024-01-28T20:02:13Z) - Computer Vision Estimation of Emotion Reaction Intensity in the Wild [1.5481864635049696]
本稿では,新たに導入された感情反応強度(ERI)推定課題について述べる。
視覚領域で訓練された4つのディープニューラルネットワークと、感情反応強度を予測するために視覚的特徴と音声的特徴の両方で訓練されたマルチモーダルモデルを開発した。
論文 参考訳(メタデータ) (2023-03-19T19:09:41Z) - Facial Expression Recognition using Squeeze and Excitation-powered Swin
Transformers [0.0]
本研究では,Swin Vision Transformers (SwinT) とSwin Vision Transformers (SE) を用いて,視覚タスクに対処するフレームワークを提案する。
我々の焦点は、最小限のデータを使って顔の感情を認識できるSwinTアーキテクチャに基づく効率的なFERモデルを作ることであった。
我々は、ハイブリッドデータセットでモデルをトレーニングし、そのパフォーマンスをAffectNetデータセットで評価し、F1スコア0.5420を達成しました。
論文 参考訳(メタデータ) (2023-01-26T02:29:17Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Multi-Task Learning of Generation and Classification for Emotion-Aware
Dialogue Response Generation [9.398596037077152]
本稿では,感情に着目したマルチタスク学習を用いたニューラル応答生成モデルを提案する。
我々のモデルは、事前訓練されたトランスフォーマーエンコーダデコーダモデルであるBARTに基づいて、応答を生成し、同時に感情を認識するよう訓練されている。
論文 参考訳(メタデータ) (2021-05-25T06:41:20Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Language Models as Emotional Classifiers for Textual Conversations [3.04585143845864]
本稿では,会話中の感情を分類する新しい手法を提案する。
提案手法のバックボーンには,事前学習型言語モデル (LM) がある。
提案手法をIEMOCAPとFriendsデータセットに適用する。
論文 参考訳(メタデータ) (2020-08-27T20:04:30Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。