論文の概要: Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction
- arxiv url: http://arxiv.org/abs/2209.04148v1
- Date: Fri, 9 Sep 2022 07:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:46:03.187045
- Title: Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction
- Title(参考訳): パーソナリティ特性予測のための多人数顔のドメイン特化学習
- Authors: Fang Li
- Abstract要約: 本稿では,新しい映像に基づく人格特徴認識手法を提案する。
本研究は,(1)人格関係の短期的顔行動の特徴を抽出する顔行動モデリングモジュール,(2)ビデオの短期的特徴をすべて長期的・ビデオレベルの人格表現として要約する顔行動モデリングモジュール,(3)全ての特徴間の関係をモデル化し,映像レベルの人格表現に基づいて共同で予測する人格特性予測モジュールからなる。
- 参考スコア(独自算出の注目度): 3.19935268158731
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Human personality decides various aspects of their daily life and working
behaviors. Since personality traits are relatively stable over time and unique
for each subject, previous approaches frequently infer personality from a
single frame or short-term behaviors. Moreover, most of them failed to
specifically extract person-specific and unique cues for personality
recognition. In this paper, we propose a novel video-based automatic
personality traits recognition approach which consists of: (1) a
\textbf{domain-specific facial behavior modelling} module that extracts
personality-related multi-scale short-term human facial behavior features; (2)
a \textbf{long-term behavior modelling} module that summarizes all short-term
features of a video as a long-term/video-level personality representation and
(3) a \textbf{multi-task personality traits prediction module} that models
underlying relationship among all traits and jointly predict them based on the
video-level personality representation. We conducted the experiments on
ChaLearn First Impression dataset, and our approach achieved comparable results
to the state-of-the-art. Importantly, we show that all three proposed modules
brought important benefits for personality recognition.
- Abstract(参考訳): 人間の性格は日常生活や労働行動の様々な側面を決定する。
パーソナリティ特性は時間とともに相対的に安定し、各被験者にとってユニークであるため、以前のアプローチでは1つのフレームや短期的な行動からパーソナリティを推測することが多い。
さらに、そのほとんどが、人格認識のための個人固有のユニークな手がかりを抽出しなかった。
In this paper, we propose a novel video-based automatic personality traits recognition approach which consists of: (1) a \textbf{domain-specific facial behavior modelling} module that extracts personality-related multi-scale short-term human facial behavior features; (2) a \textbf{long-term behavior modelling} module that summarizes all short-term features of a video as a long-term/video-level personality representation and (3) a \textbf{multi-task personality traits prediction module} that models underlying relationship among all traits and jointly predict them based on the video-level personality representation.
われわれはChaLearn First Impressionデータセットを用いて実験を行い、そのアプローチは最先端技術に匹敵する結果を得た。
重要なことは、3つのモジュールがパーソナリティ認識に重要な利点をもたらしたことである。
関連論文リスト
- MimicTalk: Mimicking a personalized and expressive 3D talking face in minutes [74.82911268630463]
トーキングフェース生成(TFG)は、ターゲットアイデンティティーの顔をアニメーション化し、リアルなトーキングビデオを作成することを目的としている。
MimicTalkは、個人別TFGの効率性と堅牢性を改善するために、NeRFベースの個人非依存のジェネリックモデルから豊富な知識を活用する。
私たちのMimicTalkは、ビデオの品質、効率、表現性に関して、これまでのベースラインを超えていることが実験によって示されています。
論文 参考訳(メタデータ) (2024-10-09T10:12:37Z) - Revealing Personality Traits: A New Benchmark Dataset for Explainable Personality Recognition on Dialogues [63.936654900356004]
パーソナリティ認識は,対話やソーシャルメディア投稿などのユーザデータに含まれる性格特性を識別することを目的としている。
本稿では,人格特性の証拠として推論過程を明らかにすることを目的とした,説明可能な人格認識という新しい課題を提案する。
論文 参考訳(メタデータ) (2024-09-29T14:41:43Z) - Enhancing Textual Personality Detection toward Social Media: Integrating Long-term and Short-term Perspectives [21.548313630700033]
テキスト・パーソナリティ検出は,ソーシャルメディア・プラットフォームに向けたユーザ生成コンテンツの分析によって性格特性を識別することを目的としている。
近年の文献では、パーソナリティは長期安定特性と短期動的状態の両方を含んでいることが強調されている。
論文 参考訳(メタデータ) (2024-04-23T14:13:53Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Personality-aware Human-centric Multimodal Reasoning: A New Task,
Dataset and Baselines [32.82738983843281]
我々はPersonality-aware Human-centric Multimodal Reasoning (PHMR) (T1)と呼ばれる新しいタスクを導入する。
課題は、過去の事例から得たマルチモーダル情報を用いて、個性要素を統合しながら、特定の個人の将来行動を予測することである。
実験の結果,性格特性を取り入れることで,人間中心の多モーダル推論性能が向上することが示された。
論文 参考訳(メタデータ) (2023-04-05T09:09:10Z) - Learning Person-specific Network Representation for Apparent Personality
Traits Recognition [3.19935268158731]
本稿では,まず個人固有のネットワークを訓練するパーソナリティ認識手法を提案する。
次に、対象の人格表現として、人称特化ネットワークの重みをグラフ表現にエンコードする。
実験結果から,我々の新しいネットワーク重みに基づくアプローチは,従来の潜在機能ベースアプローチよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-01T06:10:39Z) - Learning signatures of decision making from many individuals playing the
same game [54.33783158658077]
我々は、個人の「行動スタイル」を符号化する表現を学習する予測フレームワークを設計する。
我々は,3本腕のバンディットタスクを行う1,000人の人間による大規模行動データセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-02-21T21:41:53Z) - An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition [10.59440995582639]
パーソナリティは、人間の日常生活や作業行動の多様さを決定づけ、人間の内外的状態を理解するのに不可欠である。
近年,非言語的音声視覚行動に基づいて,対象者の見かけの個性や自己報告の個性を予測するために,多数の自動パーソナリティコンピューティング手法が開発されている。
一貫性のある実験的な設定の標準ベンチマークがないため、これらのパーソナリティコンピューティングモデルの実際の性能を適切に比較することは不可能であり、再現も困難である。
既存の8つのパーソナリティ・コンピューティング・モデルに対して公平かつ一貫した評価を提供するために,最初の再現可能な音声視覚ベンチマーク・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T14:40:04Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Characterizing Hirability via Personality and Behavior [4.187572199323744]
本研究は,emphFirst Impressions Candidate Screening データセットにおける人格と人格の関係について検討する。
A)見かけの人格アノテーション,および(b)音声,視覚的,テキストによる人格推定を用いて得られた人格推定を用いて,人格予測を行う(HP)。
また,1)マルチモーダル行動から人格を推定し,(2)人格推定からHPを推定する2段階のプロセスの有効性についても検討した。
論文 参考訳(メタデータ) (2020-06-22T07:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。