論文の概要: Your Face Mirrors Your Deepest Beliefs-Predicting Personality and Morals
through Facial Emotion Recognition
- arxiv url: http://arxiv.org/abs/2112.12455v1
- Date: Thu, 23 Dec 2021 10:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 23:20:46.419788
- Title: Your Face Mirrors Your Deepest Beliefs-Predicting Personality and Morals
through Facial Emotion Recognition
- Title(参考訳): 顔が深い信念を反映する―顔の感情認識による人格とモラルの予測
- Authors: P. A. Gloor, A. Fronzetti Colladon, E. Altuntas, C. Cetinkaya, M. F.
Kaiser, L. Ripperger, T. Schaefer
- Abstract要約: 本稿では,顔に基づいて個人の性格特性を予測する機械学習システムを提案する。
それは、異なるジャンルの15の短いビデオのシリーズを見ながら、顔の感情反応を顔の感情認識(FER)を通して追跡する。
その結果, 個人の性格特性と道徳的価値は, 映像に対する感情的反応によって予測できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can we really "read the mind in the eyes"? Moreover, can AI assist us in this
task? This paper answers these two questions by introducing a machine learning
system that predicts personality characteristics of individuals on the basis of
their face. It does so by tracking the emotional response of the individual's
face through facial emotion recognition (FER) while watching a series of 15
short videos of different genres. To calibrate the system, we invited 85 people
to watch the videos, while their emotional responses were analyzed through
their facial expression. At the same time, these individuals also took four
well-validated surveys of personality characteristics and moral values: the
revised NEO FFI personality inventory, the Haidt moral foundations test, the
Schwartz personal value system, and the domain-specific risk-taking scale
(DOSPERT). We found that personality characteristics and moral values of an
individual can be predicted through their emotional response to the videos as
shown in their face, with an accuracy of up to 86% using gradient-boosted
trees. We also found that different personality characteristics are better
predicted by different videos, in other words, there is no single video that
will provide accurate predictions for all personality characteristics, but it
is the response to the mix of different videos that allows for accurate
prediction.
- Abstract(参考訳): 本当に"目の中で心を読む"ことができるのか?
さらに、AIはこのタスクを助けてくれますか?
本稿では、顔に基づいて個人の性格特性を予測する機械学習システムを導入することで、これらの2つの疑問に答える。
それは、さまざまなジャンルの15の短いビデオを見ながら、顔の感情認識(fer)を通じて個人の顔の感情反応を追跡することによって行われる。
システムを校正するために、85人を招待して動画を視聴し、その感情的反応を表情で分析した。
同時に、これらの個人は、改定されたneo ffiパーソナリティインベントリ、haidt moral foundations test、schwartz personal value system、domain-specific risk-take scale(dospert)という4つの優れた調査を行った。
その結果,個人の性格特性とモラル価値は,顔に映るビデオに対する感情的反応によって予測でき,勾配ブースト木を用いて86%の精度で予測できることがわかった。
また,異なる個性特性が異なるビデオで予測されるのが良いことがわかった。言い換えれば,すべての個性特性に対して正確な予測を行う単一のビデオは存在しないが,正確な予測を可能にする異なるビデオの混合に対する反応である。
関連論文リスト
- Can we truly transfer an actor's genuine happiness to avatars? An
investigation into virtual, real, posed and spontaneous faces [0.7182245711235297]
本研究の目的は、実際の人間の顔、ポーズ、自発性、仮想人間の顔のデータセットにおいて、Ekmanのアクションユニットを評価することである。
また,SheHulkやGeniusといった特定の映画キャラクタを用いたケーススタディも行った。
この調査は、実際の人間でもバーチャル人間でも、教育、健康、エンターテイメント、ゲーム、セキュリティ、さらには法的な問題でも、いくつかの分野の知識に役立つ。
論文 参考訳(メタデータ) (2023-12-04T18:53:42Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for LLMs [95.04195851095481]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
この課題に対処するため、新しいベンチマークデータセットPersonalityEditを構築した。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Identifying and Manipulating the Personality Traits of Language Models [9.213700601337383]
言語モデルにおける知覚的パーソナリティが、言語生成において一貫して現れるかどうかを検討する。
BERT や GPT2 のような言語モデルでは、異なる文脈におけるパーソナライズマーカーの識別と反映が一貫して可能であることを示す。
この振る舞いは、非常に予測可能な方法で操作できる能力を示し、それらを人格の特徴を特定し、ダイアログシステムのようなアプリケーションにおけるペルソナを制御するツールとしてフレーム化します。
論文 参考訳(メタデータ) (2022-12-20T14:24:11Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - My tweets bring all the traits to the yard: Predicting personality and
relational traits in Online Social Networks [4.095574580512599]
本研究は,オンラインソーシャルネットワーク(OSN)における全体像プロファイルの予測モデルを提供することを目的とする。
我々はまずOSNアカウントから幅広い機能を抽出する機能エンジニアリング手法を考案した。
そして,抽出した特徴に基づいて,ユーザの心理的特徴のスコアを予測する機械学習モデルを設計した。
論文 参考訳(メタデータ) (2020-09-22T20:30:56Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - A Blast From the Past: Personalizing Predictions of Video-Induced
Emotions using Personal Memories as Context [5.1314912554605066]
ビデオトリガーされた記憶を記述したテキストの自動解析は、視聴者の感情的反応の変動を考慮できることを示す。
パーソナライズされた文脈における感情的ビデオ分析の自動化に対する技術アプローチの状況改善におけるこれらの知見の関連性について論じる。
論文 参考訳(メタデータ) (2020-08-27T13:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。