論文の概要: Your Face Mirrors Your Deepest Beliefs-Predicting Personality and Morals
through Facial Emotion Recognition
- arxiv url: http://arxiv.org/abs/2112.12455v1
- Date: Thu, 23 Dec 2021 10:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 23:20:46.419788
- Title: Your Face Mirrors Your Deepest Beliefs-Predicting Personality and Morals
through Facial Emotion Recognition
- Title(参考訳): 顔が深い信念を反映する―顔の感情認識による人格とモラルの予測
- Authors: P. A. Gloor, A. Fronzetti Colladon, E. Altuntas, C. Cetinkaya, M. F.
Kaiser, L. Ripperger, T. Schaefer
- Abstract要約: 本稿では,顔に基づいて個人の性格特性を予測する機械学習システムを提案する。
それは、異なるジャンルの15の短いビデオのシリーズを見ながら、顔の感情反応を顔の感情認識(FER)を通して追跡する。
その結果, 個人の性格特性と道徳的価値は, 映像に対する感情的反応によって予測できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can we really "read the mind in the eyes"? Moreover, can AI assist us in this
task? This paper answers these two questions by introducing a machine learning
system that predicts personality characteristics of individuals on the basis of
their face. It does so by tracking the emotional response of the individual's
face through facial emotion recognition (FER) while watching a series of 15
short videos of different genres. To calibrate the system, we invited 85 people
to watch the videos, while their emotional responses were analyzed through
their facial expression. At the same time, these individuals also took four
well-validated surveys of personality characteristics and moral values: the
revised NEO FFI personality inventory, the Haidt moral foundations test, the
Schwartz personal value system, and the domain-specific risk-taking scale
(DOSPERT). We found that personality characteristics and moral values of an
individual can be predicted through their emotional response to the videos as
shown in their face, with an accuracy of up to 86% using gradient-boosted
trees. We also found that different personality characteristics are better
predicted by different videos, in other words, there is no single video that
will provide accurate predictions for all personality characteristics, but it
is the response to the mix of different videos that allows for accurate
prediction.
- Abstract(参考訳): 本当に"目の中で心を読む"ことができるのか?
さらに、AIはこのタスクを助けてくれますか?
本稿では、顔に基づいて個人の性格特性を予測する機械学習システムを導入することで、これらの2つの疑問に答える。
それは、さまざまなジャンルの15の短いビデオを見ながら、顔の感情認識(fer)を通じて個人の顔の感情反応を追跡することによって行われる。
システムを校正するために、85人を招待して動画を視聴し、その感情的反応を表情で分析した。
同時に、これらの個人は、改定されたneo ffiパーソナリティインベントリ、haidt moral foundations test、schwartz personal value system、domain-specific risk-take scale(dospert)という4つの優れた調査を行った。
その結果,個人の性格特性とモラル価値は,顔に映るビデオに対する感情的反応によって予測でき,勾配ブースト木を用いて86%の精度で予測できることがわかった。
また,異なる個性特性が異なるビデオで予測されるのが良いことがわかった。言い換えれば,すべての個性特性に対して正確な予測を行う単一のビデオは存在しないが,正確な予測を可能にする異なるビデオの混合に対する反応である。
関連論文リスト
- Revealing Personality Traits: A New Benchmark Dataset for Explainable Personality Recognition on Dialogues [63.936654900356004]
パーソナリティ認識は,対話やソーシャルメディア投稿などのユーザデータに含まれる性格特性を識別することを目的としている。
本稿では,人格特性の証拠として推論過程を明らかにすることを目的とした,説明可能な人格認識という新しい課題を提案する。
論文 参考訳(メタデータ) (2024-09-29T14:41:43Z) - Personality Analysis for Social Media Users using Arabic language and its Effect on Sentiment Analysis [1.2903829793534267]
本研究は、Twitter上でのアラビア語の使用と性格特性と感情分析への影響の相関について検討した。
本研究では、プロフィール活動から抽出した情報と、ツイートの内容に基づいて、ユーザの性格特性を示す。
その結果,人格がソーシャルメディアの感情に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2024-07-08T18:27:54Z) - EERPD: Leveraging Emotion and Emotion Regulation for Improving Personality Detection [19.98674724777821]
EERPDと呼ばれる新しい人格検出手法を提案する。
本手法では,人格予測において,人格に強く相関する心理的概念である感情制御を導入する。
実験の結果,ERPDは人格検出の精度とロバスト性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-06-23T11:18:55Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Can we truly transfer an actor's genuine happiness to avatars? An
investigation into virtual, real, posed and spontaneous faces [0.7182245711235297]
本研究の目的は、実際の人間の顔、ポーズ、自発性、仮想人間の顔のデータセットにおいて、Ekmanのアクションユニットを評価することである。
また,SheHulkやGeniusといった特定の映画キャラクタを用いたケーススタディも行った。
この調査は、実際の人間でもバーチャル人間でも、教育、健康、エンターテイメント、ゲーム、セキュリティ、さらには法的な問題でも、いくつかの分野の知識に役立つ。
論文 参考訳(メタデータ) (2023-12-04T18:53:42Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - My tweets bring all the traits to the yard: Predicting personality and
relational traits in Online Social Networks [4.095574580512599]
本研究は,オンラインソーシャルネットワーク(OSN)における全体像プロファイルの予測モデルを提供することを目的とする。
我々はまずOSNアカウントから幅広い機能を抽出する機能エンジニアリング手法を考案した。
そして,抽出した特徴に基づいて,ユーザの心理的特徴のスコアを予測する機械学習モデルを設計した。
論文 参考訳(メタデータ) (2020-09-22T20:30:56Z) - A Blast From the Past: Personalizing Predictions of Video-Induced
Emotions using Personal Memories as Context [5.1314912554605066]
ビデオトリガーされた記憶を記述したテキストの自動解析は、視聴者の感情的反応の変動を考慮できることを示す。
パーソナライズされた文脈における感情的ビデオ分析の自動化に対する技術アプローチの状況改善におけるこれらの知見の関連性について論じる。
論文 参考訳(メタデータ) (2020-08-27T13:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。