論文の概要: Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction
- arxiv url: http://arxiv.org/abs/2209.04148v1
- Date: Fri, 9 Sep 2022 07:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:46:03.187045
- Title: Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction
- Title(参考訳): パーソナリティ特性予測のための多人数顔のドメイン特化学習
- Authors: Fang Li
- Abstract要約: 本稿では,新しい映像に基づく人格特徴認識手法を提案する。
本研究は,(1)人格関係の短期的顔行動の特徴を抽出する顔行動モデリングモジュール,(2)ビデオの短期的特徴をすべて長期的・ビデオレベルの人格表現として要約する顔行動モデリングモジュール,(3)全ての特徴間の関係をモデル化し,映像レベルの人格表現に基づいて共同で予測する人格特性予測モジュールからなる。
- 参考スコア(独自算出の注目度): 3.19935268158731
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Human personality decides various aspects of their daily life and working
behaviors. Since personality traits are relatively stable over time and unique
for each subject, previous approaches frequently infer personality from a
single frame or short-term behaviors. Moreover, most of them failed to
specifically extract person-specific and unique cues for personality
recognition. In this paper, we propose a novel video-based automatic
personality traits recognition approach which consists of: (1) a
\textbf{domain-specific facial behavior modelling} module that extracts
personality-related multi-scale short-term human facial behavior features; (2)
a \textbf{long-term behavior modelling} module that summarizes all short-term
features of a video as a long-term/video-level personality representation and
(3) a \textbf{multi-task personality traits prediction module} that models
underlying relationship among all traits and jointly predict them based on the
video-level personality representation. We conducted the experiments on
ChaLearn First Impression dataset, and our approach achieved comparable results
to the state-of-the-art. Importantly, we show that all three proposed modules
brought important benefits for personality recognition.
- Abstract(参考訳): 人間の性格は日常生活や労働行動の様々な側面を決定する。
パーソナリティ特性は時間とともに相対的に安定し、各被験者にとってユニークであるため、以前のアプローチでは1つのフレームや短期的な行動からパーソナリティを推測することが多い。
さらに、そのほとんどが、人格認識のための個人固有のユニークな手がかりを抽出しなかった。
In this paper, we propose a novel video-based automatic personality traits recognition approach which consists of: (1) a \textbf{domain-specific facial behavior modelling} module that extracts personality-related multi-scale short-term human facial behavior features; (2) a \textbf{long-term behavior modelling} module that summarizes all short-term features of a video as a long-term/video-level personality representation and (3) a \textbf{multi-task personality traits prediction module} that models underlying relationship among all traits and jointly predict them based on the video-level personality representation.
われわれはChaLearn First Impressionデータセットを用いて実験を行い、そのアプローチは最先端技術に匹敵する結果を得た。
重要なことは、3つのモジュールがパーソナリティ認識に重要な利点をもたらしたことである。
関連論文リスト
- LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for LLMs [95.04195851095481]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
この課題に対処するため、新しいベンチマークデータセットPersonalityEditを構築した。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Personality-aware Human-centric Multimodal Reasoning: A New Task,
Dataset and Baselines [32.82738983843281]
我々はPersonality-aware Human-centric Multimodal Reasoning (PHMR) (T1)と呼ばれる新しいタスクを導入する。
課題は、過去の事例から得たマルチモーダル情報を用いて、個性要素を統合しながら、特定の個人の将来行動を予測することである。
実験の結果,性格特性を取り入れることで,人間中心の多モーダル推論性能が向上することが示された。
論文 参考訳(メタデータ) (2023-04-05T09:09:10Z) - Learning Person-specific Network Representation for Apparent Personality
Traits Recognition [3.19935268158731]
本稿では,まず個人固有のネットワークを訓練するパーソナリティ認識手法を提案する。
次に、対象の人格表現として、人称特化ネットワークの重みをグラフ表現にエンコードする。
実験結果から,我々の新しいネットワーク重みに基づくアプローチは,従来の潜在機能ベースアプローチよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-01T06:10:39Z) - Learning signatures of decision making from many individuals playing the
same game [54.33783158658077]
我々は、個人の「行動スタイル」を符号化する表現を学習する予測フレームワークを設計する。
我々は,3本腕のバンディットタスクを行う1,000人の人間による大規模行動データセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-02-21T21:41:53Z) - An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition [10.59440995582639]
パーソナリティは、人間の日常生活や作業行動の多様さを決定づけ、人間の内外的状態を理解するのに不可欠である。
近年,非言語的音声視覚行動に基づいて,対象者の見かけの個性や自己報告の個性を予測するために,多数の自動パーソナリティコンピューティング手法が開発されている。
一貫性のある実験的な設定の標準ベンチマークがないため、これらのパーソナリティコンピューティングモデルの実際の性能を適切に比較することは不可能であり、再現も困難である。
既存の8つのパーソナリティ・コンピューティング・モデルに対して公平かつ一貫した評価を提供するために,最初の再現可能な音声視覚ベンチマーク・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T14:40:04Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Multitask Learning for Emotion and Personality Detection [17.029426018676997]
本研究では,人格特性と感情行動の相関関係を解明し,新しいマルチタスク学習フレームワークSoGMTLを提案する。
当社の計算効率の高いCNNベースのマルチタスクモデルは、複数の有名なパーソナリティおよび感情データセットにわたる最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-01-07T03:09:55Z) - Vyaktitv: A Multimodal Peer-to-Peer Hindi Conversations based Dataset
for Personality Assessment [50.15466026089435]
本稿では,ピアツーピアのHindi会話データセットであるVyaktitvを提案する。
参加者の高品質な音声とビデオの録音と、会話ごとにヒングリッシュのテキストによる書き起こしで構成されている。
データセットには、収入、文化的指向など、すべての参加者のための豊富な社会デコグラフィー的特徴が含まれています。
論文 参考訳(メタデータ) (2020-08-31T17:44:28Z) - Characterizing Hirability via Personality and Behavior [4.187572199323744]
本研究は,emphFirst Impressions Candidate Screening データセットにおける人格と人格の関係について検討する。
A)見かけの人格アノテーション,および(b)音声,視覚的,テキストによる人格推定を用いて得られた人格推定を用いて,人格予測を行う(HP)。
また,1)マルチモーダル行動から人格を推定し,(2)人格推定からHPを推定する2段階のプロセスの有効性についても検討した。
論文 参考訳(メタデータ) (2020-06-22T07:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。