論文の概要: An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition
- arxiv url: http://arxiv.org/abs/2210.09138v1
- Date: Mon, 17 Oct 2022 14:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:56:17.628023
- Title: An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition
- Title(参考訳): 視聴覚および自己報告型パーソナリティ認識のためのディープラーニングモデルのオープンソースベンチマーク
- Authors: Rongfan Liao, Siyang Song and Hatice Gunes
- Abstract要約: 人格は人間の内外的状態を理解するために不可欠である。
既存のパーソナリティコンピューティングアプローチのほとんどは、複雑でデータセット固有の前処理ステップに悩まされている。
本稿では,最初の再現可能な音声視覚ベンチマークフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.226655910005487
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Personality is crucial for understanding human internal and external states.
The majority of existing personality computing approaches suffer from complex
and dataset-specific pre-processing steps and model training tricks. In the
absence of a standardized benchmark with consistent experimental settings, it
is not only impossible to fairly compare the real performances of these
personality computing models but also makes them difficult to be reproduced. In
this paper, we present the first reproducible audio-visual benchmarking
framework to provide a fair and consistent evaluation of eight existing
personality computing models (e.g., audio, visual and audio-visual) and seven
standard deep learning models on both self-reported and apparent personality
recognition tasks. We conduct a comprehensive investigation into all the
benchmarked models to demonstrate their capabilities in modelling personality
traits on two publicly available datasets, audio-visual apparent personality
(ChaLearn First Impression) and self-reported personality (UDIVA) datasets. The
experimental results conclude: (i) apparent personality traits, inferred from
facial behaviours by most benchmarked deep learning models, show more
reliability than self-reported ones; (ii) visual models frequently achieved
superior performances than audio models on personality recognition; and (iii)
non-verbal behaviours contribute differently in predicting different
personality traits. We make the code publicly available at
https://github.com/liaorongfan/DeepPersonality .
- Abstract(参考訳): 人格は人間の内外の状態を理解するために不可欠である。
既存のパーソナリティコンピューティングのアプローチの大部分は、複雑でデータセット固有の前処理ステップとモデルトレーニングのトリックに苦しむ。
一貫性のある実験的な設定の標準ベンチマークがないため、これらのパーソナリティコンピューティングモデルの実際の性能を適切に比較することは不可能であり、再現も困難である。
本稿では,既存の8つのパーソナリティ・コンピューティングモデル(例えば,音声,視覚,音声視覚)と7つの標準ディープラーニングモデルについて,自己報告と明らかなパーソナリティ認識タスクの両方で公正かつ一貫した評価を行うための,最初の再現可能な音声・視覚ベンチマークフレームワークを提案する。
本研究は,2つの公開データセット(ChaLearn First Impression)と自己報告型パーソナリティ(UDIVA)データセット(UDIVA))において,その性格特性をモデル化する能力を示すため,すべてのベンチマークモデルを包括的に調査する。
実験結果は以下の通りである。
(i)ほとんどのベンチマークされたディープラーニングモデルによる顔行動から推定される明らかな性格特性は、自己報告されたものよりも信頼性が高い。
(II)視覚モデルは、人格認識における音声モデルよりも優れたパフォーマンスをしばしば達成し、
(三)非言語行動は人格特性の予測に異なる貢献をする。
コードをhttps://github.com/liaorongfan/DeepPersonality で公開しています。
関連論文リスト
- LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Analysing the Impact of Audio Quality on the Use of Naturalistic
Long-Form Recordings for Infant-Directed Speech Research [62.997667081978825]
早期言語習得のモデリングは、幼児が言語スキルをブートストラップする方法を理解することを目的としている。
近年の進歩により、より自然主義的なトレーニングデータを計算モデルに利用できるようになった。
音質がこれらのデータに対する分析やモデリング実験にどう影響するかは、現時点では不明である。
論文 参考訳(メタデータ) (2023-05-03T08:25:37Z) - Personality-aware Human-centric Multimodal Reasoning: A New Task,
Dataset and Baselines [32.82738983843281]
我々はPersonality-aware Human-centric Multimodal Reasoning (PHMR) (T1)と呼ばれる新しいタスクを導入する。
課題は、過去の事例から得たマルチモーダル情報を用いて、個性要素を統合しながら、特定の個人の将来行動を予測することである。
実験の結果,性格特性を取り入れることで,人間中心の多モーダル推論性能が向上することが示された。
論文 参考訳(メタデータ) (2023-04-05T09:09:10Z) - Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction [3.19935268158731]
本稿では,新しい映像に基づく人格特徴認識手法を提案する。
本研究は,(1)人格関係の短期的顔行動の特徴を抽出する顔行動モデリングモジュール,(2)ビデオの短期的特徴をすべて長期的・ビデオレベルの人格表現として要約する顔行動モデリングモジュール,(3)全ての特徴間の関係をモデル化し,映像レベルの人格表現に基づいて共同で予測する人格特性予測モジュールからなる。
論文 参考訳(メタデータ) (2022-09-09T07:08:55Z) - Fact sheet: Automatic Self-Reported Personality Recognition Track [0.6091702876917281]
得られたメタデータと自己アサインされた性格特性スコアの相関について分析した。
我々は,この情報ベースラインの性能を,最先端の視覚的,言語的,音声的特徴に基づくモデルと比較した。
論文 参考訳(メタデータ) (2022-07-22T11:30:11Z) - Self-supervised models of audio effectively explain human cortical
responses to speech [71.57870452667369]
我々は、自己教師型音声表現学習の進歩に乗じて、人間の聴覚システムの最先端モデルを作成する。
これらの結果から,ヒト大脳皮質における音声処理の異なる段階に関連する情報の階層構造を,自己教師型モデルで効果的に把握できることが示唆された。
論文 参考訳(メタデータ) (2022-05-27T22:04:02Z) - Multitask Learning for Emotion and Personality Detection [17.029426018676997]
本研究では,人格特性と感情行動の相関関係を解明し,新しいマルチタスク学習フレームワークSoGMTLを提案する。
当社の計算効率の高いCNNベースのマルチタスクモデルは、複数の有名なパーソナリティおよび感情データセットにわたる最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-01-07T03:09:55Z) - Personality Trait Detection Using Bagged SVM over BERT Word Embedding
Ensembles [10.425280599592865]
本稿では,テキストからの人格自動検出のための新しい深層学習手法を提案する。
我々は、自然言語理解における最先端技術、すなわちBERT言語モデルを活用して、文脈化された単語埋め込みを抽出する。
我々のモデルは、従来の最先端技術よりも1.04%優れており、同時に、トレーニングの計算効率も大幅に向上している。
論文 参考訳(メタデータ) (2020-10-03T09:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。