論文の概要: Context-Aware Personality Inference in Dyadic Scenarios: Introducing the
UDIVA Dataset
- arxiv url: http://arxiv.org/abs/2012.14259v1
- Date: Mon, 28 Dec 2020 15:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 12:13:48.664691
- Title: Context-Aware Personality Inference in Dyadic Scenarios: Introducing the
UDIVA Dataset
- Title(参考訳): 方言シナリオにおける文脈認識的パーソナリティ推論 : UDIVAデータセットの導入
- Authors: Cristina Palmero, Javier Selva, Sorina Smeureanu, Julio C. S. Jacques
Junior, Albert Clap\'es, Alexa Mosegu\'i, Zejian Zhang, David Gallardo,
Georgina Guilera, David Leiva, Sergio Escalera
- Abstract要約: 本稿では,対面dyadicインタラクションの非機能データセットであるudivaを紹介する。
このデータセットは188セッションで配布された147人の参加者の間での90.5時間にわたる社会・リズムの相互作用で構成されている。
自己評価、自己報告、自己報告、内的状態、そして参加者による関係のプロファイリングが含まれる。
- 参考スコア(独自算出の注目度): 21.140721329446595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces UDIVA, a new non-acted dataset of face-to-face dyadic
interactions, where interlocutors perform competitive and collaborative tasks
with different behavior elicitation and cognitive workload. The dataset
consists of 90.5 hours of dyadic interactions among 147 participants
distributed in 188 sessions, recorded using multiple audiovisual and
physiological sensors. Currently, it includes sociodemographic, self- and
peer-reported personality, internal state, and relationship profiling from
participants. As an initial analysis on UDIVA, we propose a transformer-based
method for self-reported personality inference in dyadic scenarios, which uses
audiovisual data and different sources of context from both interlocutors to
regress a target person's personality traits. Preliminary results from an
incremental study show consistent improvements when using all available context
information.
- Abstract(参考訳): 本稿では,顔と顔の対話の非作用データセットである UDIVA について紹介する。
データセットは188セッションに配布された147人の参加者の90.5時間のdyadicインタラクションで構成され、複数の視聴覚および生理的センサーを用いて記録される。
現在、社会デモグラフィ、自己およびピアレポートされたパーソナリティ、内部状態、および参加者からの関係のプロファイリングが含まれている。
UDIVAの初期分析として,両対話者からの視聴覚データと異なるコンテキストソースを用いて,対象者の性格特性を抑圧する,自己申告型性格推定手法を提案する。
インクリメンタルな研究による予備的な結果は、利用可能なすべてのコンテキスト情報を使用することで一貫した改善を示す。
関連論文リスト
- Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - The MuSe 2024 Multimodal Sentiment Analysis Challenge: Social Perception and Humor Recognition [64.5207572897806]
マルチモーダル・センティメント・アナリティクス・チャレンジ (MuSe) 2024は、現代の2つのマルチモーダル・インフルエンスと感情分析の問題に対処する。
Social Perception Sub-Challenge (MuSe-Perception)では、参加者は16種類の個人の社会的属性を予測する。
クロスカルカルカルチャー・ヒューモー検出サブチャレンジ(MuSe-Humor)データセットは、Passau Spontaneous Football Coach Humorデータセット上に拡張される。
論文 参考訳(メタデータ) (2024-06-11T22:26:20Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - MedNgage: A Dataset for Understanding Engagement in Patient-Nurse
Conversations [4.847266237348932]
症状を効果的に管理する患者は、医療従事者との会話や介入において、より高いレベルのエンゲージメントを示すことが多い。
AIシステムは、患者と実践者との自然な会話におけるエンゲージメントを理解して、患者のケアにもっと貢献することが不可欠である。
本稿では,がん症状管理に関する患者と看護者の会話をまとめた新しいデータセット(MedNgage)を提案する。
論文 参考訳(メタデータ) (2023-05-31T16:06:07Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z) - Partner Matters! An Empirical Study on Fusing Personas for Personalized
Response Selection in Retrieval-Based Chatbots [51.091235903442715]
本稿では,自己とパートナーの話者が応答選択の課題に与える影響について検討する。
4つのペルソナ融合戦略が設計されており、異なる方法でペルソナがコンテキストや応答と相互作用することを前提としている。
Persona-Chatデータセットに関する実証研究は、パートナーペルソナが応答選択の精度を向上させることができることを示している。
論文 参考訳(メタデータ) (2021-05-19T10:32:30Z) - Modeling Dyadic Conversations for Personality Inference [8.19277339277905]
本稿では,個人間の対話に基づく非教師付き個人会話埋め込み(PCE)学習のための拡張GRUモデルを提案する。
映画スクリプトにおける文字間の会話から収集した映画スクリプトデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-09-26T01:25:42Z) - Vyaktitv: A Multimodal Peer-to-Peer Hindi Conversations based Dataset
for Personality Assessment [50.15466026089435]
本稿では,ピアツーピアのHindi会話データセットであるVyaktitvを提案する。
参加者の高品質な音声とビデオの録音と、会話ごとにヒングリッシュのテキストによる書き起こしで構成されている。
データセットには、収入、文化的指向など、すべての参加者のための豊富な社会デコグラフィー的特徴が含まれています。
論文 参考訳(メタデータ) (2020-08-31T17:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。