論文の概要: Characterizing Hirability via Personality and Behavior
- arxiv url: http://arxiv.org/abs/2006.12041v1
- Date: Mon, 22 Jun 2020 07:24:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:25:54.524015
- Title: Characterizing Hirability via Personality and Behavior
- Title(参考訳): 性格と行動による特性評価
- Authors: Harshit Malik, Hersh Dhillon, Roland Goecke, Ramanathan Subramanian
- Abstract要約: 本研究は,emphFirst Impressions Candidate Screening データセットにおける人格と人格の関係について検討する。
A)見かけの人格アノテーション,および(b)音声,視覚的,テキストによる人格推定を用いて得られた人格推定を用いて,人格予測を行う(HP)。
また,1)マルチモーダル行動から人格を推定し,(2)人格推定からHPを推定する2段階のプロセスの有効性についても検討した。
- 参考スコア(独自算出の注目度): 4.187572199323744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While personality traits have been extensively modeled as behavioral
constructs, we model \textbf{\textit{job hirability}} as a \emph{personality
construct}. On the {\emph{First Impressions Candidate Screening}} (FICS)
dataset, we examine relationships among personality and hirability measures.
Modeling hirability as a discrete/continuous variable with the \emph{big-five}
personality traits as predictors, we utilize (a) apparent personality
annotations, and (b) personality estimates obtained via audio, visual and
textual cues for hirability prediction (HP). We also examine the efficacy of a
two-step HP process involving (1) personality estimation from multimodal
behavioral cues, followed by (2) HP from personality estimates.
Interesting results from experiments performed on $\approx$~5000 FICS videos
are as follows. (1) For each of the \emph{text}, \emph{audio} and \emph{visual}
modalities, HP via the above two-step process is more effective than directly
predicting from behavioral cues. Superior results are achieved when hirability
is modeled as a continuous vis-\'a-vis categorical variable. (2) Among visual
cues, eye and bodily information achieve performance comparable to face cues
for predicting personality and hirability. (3) Explanatory analyses reveal the
impact of multimodal behavior on personality impressions; \eg,
Conscientiousness impressions are impacted by the use of \emph{cuss words}
(verbal behavior), and \emph{eye movements} (non-verbal behavior), confirming
prior observations.
- Abstract(参考訳): 性格特性は行動構造として広くモデル化されているが、我々は \textbf{\textit{job hirability}} を \emph{personality construct} としてモデル化している。
また,「第一印象候補スクリーニング」(fics)データセットについて,パーソナリティとアイラビリティ尺度の関係について検討した。
Emph{big-five}性格特性を予測因子として用いた離散連続変数のモデル化
(a)明らかな人格アノテーション、及び
(b) 視力予測(HP)のための音声, 視覚, テキストによる人格推定を行う。
また,(1)多様行動手がかりからのパーソナリティ推定,(2)パーソナリティ推定によるパーソナリティ推定を含む2段階hpプロセスの有効性について検討した。
$\approx$~5000 FICSビデオで行われた実験の興味深い結果は以下の通りである。
1) \emph{text}, \emph{audio}, \emph{visual} の各モダリティに対して、上記の2段階のプロセスによるhpは、行動的手がかりから直接予測するよりも効果的である。
平度を連続 vis-\'a-vis カテゴリー変数としてモデル化すると、上位結果が得られる。
2)視覚情報のうち,視線情報と身体情報は,パーソナリティと有能性を予測するための顔手がかりに匹敵する性能を達成する。
3)マルチモーダル行動がパーソナリティ印象に与える影響を説明的分析により明らかにする; \emph{cuss words} (言語行動) と \emph{eye movement} (非言語行動) の使用によって良心的な印象が影響を受ける。
関連論文リスト
- Revealing Personality Traits: A New Benchmark Dataset for Explainable Personality Recognition on Dialogues [63.936654900356004]
パーソナリティ認識は,対話やソーシャルメディア投稿などのユーザデータに含まれる性格特性を識別することを目的としている。
本稿では,人格特性の証拠として推論過程を明らかにすることを目的とした,説明可能な人格認識という新しい課題を提案する。
論文 参考訳(メタデータ) (2024-09-29T14:41:43Z) - EERPD: Leveraging Emotion and Emotion Regulation for Improving Personality Detection [19.98674724777821]
EERPDと呼ばれる新しい人格検出手法を提案する。
本手法では,人格予測において,人格に強く相関する心理的概念である感情制御を導入する。
実験の結果,ERPDは人格検出の精度とロバスト性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-06-23T11:18:55Z) - Large Language Models Can Infer Personality from Free-Form User Interactions [0.0]
GPT-4は、パーソナリティを適度な精度で推測することができ、以前のアプローチよりも優れていた。
その結果,人格評価への直接的注力は,ユーザエクスペリエンスの低下を招いていないことがわかった。
予備的な分析は、人格推定の正確さは、社会デミノグラフィーのサブグループによってわずかに異なることを示唆している。
論文 参考訳(メタデータ) (2024-05-19T20:33:36Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition [10.59440995582639]
パーソナリティは、人間の日常生活や作業行動の多様さを決定づけ、人間の内外的状態を理解するのに不可欠である。
近年,非言語的音声視覚行動に基づいて,対象者の見かけの個性や自己報告の個性を予測するために,多数の自動パーソナリティコンピューティング手法が開発されている。
一貫性のある実験的な設定の標準ベンチマークがないため、これらのパーソナリティコンピューティングモデルの実際の性能を適切に比較することは不可能であり、再現も困難である。
既存の8つのパーソナリティ・コンピューティング・モデルに対して公平かつ一貫した評価を提供するために,最初の再現可能な音声視覚ベンチマーク・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T14:40:04Z) - Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction [3.19935268158731]
本稿では,新しい映像に基づく人格特徴認識手法を提案する。
本研究は,(1)人格関係の短期的顔行動の特徴を抽出する顔行動モデリングモジュール,(2)ビデオの短期的特徴をすべて長期的・ビデオレベルの人格表現として要約する顔行動モデリングモジュール,(3)全ての特徴間の関係をモデル化し,映像レベルの人格表現に基づいて共同で予測する人格特性予測モジュールからなる。
論文 参考訳(メタデータ) (2022-09-09T07:08:55Z) - Learning Language and Multimodal Privacy-Preserving Markers of Mood from
Mobile Data [74.60507696087966]
精神状態は、先進医療に共通する国でも診断されていない。
人間の行動を監視するための有望なデータソースのひとつは、日々のスマートフォンの利用だ。
本研究では,自殺行動のリスクが高い青少年集団の移動行動のデータセットを用いて,日常生活の行動マーカーについて検討した。
論文 参考訳(メタデータ) (2021-06-24T17:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。