論文の概要: An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition
- arxiv url: http://arxiv.org/abs/2210.09138v2
- Date: Tue, 6 Feb 2024 04:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 21:27:58.485336
- Title: An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition
- Title(参考訳): 視聴覚および自己報告型パーソナリティ認識のためのディープラーニングモデルのオープンソースベンチマーク
- Authors: Rongfan Liao and Siyang Song and Hatice Gunes
- Abstract要約: パーソナリティは、人間の日常生活や作業行動の多様さを決定づけ、人間の内外的状態を理解するのに不可欠である。
近年,非言語的音声視覚行動に基づいて,対象者の見かけの個性や自己報告の個性を予測するために,多数の自動パーソナリティコンピューティング手法が開発されている。
一貫性のある実験的な設定の標準ベンチマークがないため、これらのパーソナリティコンピューティングモデルの実際の性能を適切に比較することは不可能であり、再現も困難である。
既存の8つのパーソナリティ・コンピューティング・モデルに対して公平かつ一貫した評価を提供するために,最初の再現可能な音声視覚ベンチマーク・フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.59440995582639
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Personality determines a wide variety of human daily and working behaviours,
and is crucial for understanding human internal and external states. In recent
years, a large number of automatic personality computing approaches have been
developed to predict either the apparent personality or self-reported
personality of the subject based on non-verbal audio-visual behaviours.
However, the majority of them suffer from complex and dataset-specific
pre-processing steps and model training tricks. In the absence of a
standardized benchmark with consistent experimental settings, it is not only
impossible to fairly compare the real performances of these personality
computing models but also makes them difficult to be reproduced. In this paper,
we present the first reproducible audio-visual benchmarking framework to
provide a fair and consistent evaluation of eight existing personality
computing models (e.g., audio, visual and audio-visual) and seven standard deep
learning models on both self-reported and apparent personality recognition
tasks. Building upon a set of benchmarked models, we also investigate the
impact of two previously-used long-term modelling strategies for summarising
short-term/frame-level predictions on personality computing results. The
results conclude: (i) apparent personality traits, inferred from facial
behaviours by most benchmarked deep learning models, show more reliability than
self-reported ones; (ii) visual models frequently achieved superior
performances than audio models on personality recognition; (iii) non-verbal
behaviours contribute differently in predicting different personality traits;
and (iv) our reproduced personality computing models generally achieved worse
performances than their original reported results. Our benchmark is publicly
available at \url{https://github.com/liaorongfan/DeepPersonality}.
- Abstract(参考訳): パーソナリティは、人間の日常生活や作業行動の多様さを決定づけ、人間の内外的状態を理解するのに不可欠である。
近年,非言語的音声・視覚行動に基づく被験者の見かけのパーソナリティまたは自己報告のパーソナリティを予測するための自動パーソナリティ計算手法が多数開発されている。
しかし、その大半は複雑なデータセット固有の前処理ステップやモデルトレーニングのトリックに苦しむ。
一貫性のある実験的な設定の標準ベンチマークがないため、これらのパーソナリティコンピューティングモデルの実際の性能を適切に比較することは不可能であり、再現も困難である。
本稿では,既存の8つのパーソナリティ・コンピューティングモデル(例えば,音声,視覚,音声視覚)と7つの標準ディープラーニングモデルについて,自己報告と明らかなパーソナリティ認識タスクの両方で公正かつ一貫した評価を行うための,最初の再現可能な音声・視覚ベンチマークフレームワークを提案する。
また、一連のベンチマークモデルに基づいて、人格計算結果に対する短期・フレームレベルの予測を要約するための2つの長期モデリング戦略の影響についても検討する。
結果は以下の通りである。
(i)ほとんどのベンチマークされたディープラーニングモデルによる顔行動から推定される明らかな性格特性は、自己報告されたものよりも信頼性が高い。
(II)視覚モデルは、人格認識における音声モデルよりも優れたパフォーマンスをしばしば達成する。
(iii)非言語行動は、異なる性格特性の予測に異なる寄与をする。
(4) 再現されたパーソナリティ・コンピューティング・モデルは, 当初報告した結果よりも性能が悪くなった。
我々のベンチマークは \url{https://github.com/liaorongfan/DeepPersonality} で公開されています。
関連論文リスト
- LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Analysing the Impact of Audio Quality on the Use of Naturalistic
Long-Form Recordings for Infant-Directed Speech Research [62.997667081978825]
早期言語習得のモデリングは、幼児が言語スキルをブートストラップする方法を理解することを目的としている。
近年の進歩により、より自然主義的なトレーニングデータを計算モデルに利用できるようになった。
音質がこれらのデータに対する分析やモデリング実験にどう影響するかは、現時点では不明である。
論文 参考訳(メタデータ) (2023-05-03T08:25:37Z) - Personality-aware Human-centric Multimodal Reasoning: A New Task,
Dataset and Baselines [32.82738983843281]
我々はPersonality-aware Human-centric Multimodal Reasoning (PHMR) (T1)と呼ばれる新しいタスクを導入する。
課題は、過去の事例から得たマルチモーダル情報を用いて、個性要素を統合しながら、特定の個人の将来行動を予測することである。
実験の結果,性格特性を取り入れることで,人間中心の多モーダル推論性能が向上することが示された。
論文 参考訳(メタデータ) (2023-04-05T09:09:10Z) - Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction [3.19935268158731]
本稿では,新しい映像に基づく人格特徴認識手法を提案する。
本研究は,(1)人格関係の短期的顔行動の特徴を抽出する顔行動モデリングモジュール,(2)ビデオの短期的特徴をすべて長期的・ビデオレベルの人格表現として要約する顔行動モデリングモジュール,(3)全ての特徴間の関係をモデル化し,映像レベルの人格表現に基づいて共同で予測する人格特性予測モジュールからなる。
論文 参考訳(メタデータ) (2022-09-09T07:08:55Z) - Fact sheet: Automatic Self-Reported Personality Recognition Track [0.6091702876917281]
得られたメタデータと自己アサインされた性格特性スコアの相関について分析した。
我々は,この情報ベースラインの性能を,最先端の視覚的,言語的,音声的特徴に基づくモデルと比較した。
論文 参考訳(メタデータ) (2022-07-22T11:30:11Z) - Self-supervised models of audio effectively explain human cortical
responses to speech [71.57870452667369]
我々は、自己教師型音声表現学習の進歩に乗じて、人間の聴覚システムの最先端モデルを作成する。
これらの結果から,ヒト大脳皮質における音声処理の異なる段階に関連する情報の階層構造を,自己教師型モデルで効果的に把握できることが示唆された。
論文 参考訳(メタデータ) (2022-05-27T22:04:02Z) - Multitask Learning for Emotion and Personality Detection [17.029426018676997]
本研究では,人格特性と感情行動の相関関係を解明し,新しいマルチタスク学習フレームワークSoGMTLを提案する。
当社の計算効率の高いCNNベースのマルチタスクモデルは、複数の有名なパーソナリティおよび感情データセットにわたる最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-01-07T03:09:55Z) - Personality Trait Detection Using Bagged SVM over BERT Word Embedding
Ensembles [10.425280599592865]
本稿では,テキストからの人格自動検出のための新しい深層学習手法を提案する。
我々は、自然言語理解における最先端技術、すなわちBERT言語モデルを活用して、文脈化された単語埋め込みを抽出する。
我々のモデルは、従来の最先端技術よりも1.04%優れており、同時に、トレーニングの計算効率も大幅に向上している。
論文 参考訳(メタデータ) (2020-10-03T09:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。