論文の概要: MDPE: A Multimodal Deception Dataset with Personality and Emotional Characteristics
- arxiv url: http://arxiv.org/abs/2407.12274v1
- Date: Wed, 17 Jul 2024 02:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:38:37.228828
- Title: MDPE: A Multimodal Deception Dataset with Personality and Emotional Characteristics
- Title(参考訳): MDPE:パーソナリティと感情特性を備えたマルチモーダル・デセプション・データセット
- Authors: Cong Cai, Shan Liang, Xuefei Liu, Kang Zhu, Zhengqi Wen, Jianhua Tao, Heng Xie, Jizhou Cui, Yiming Ma, Zhenhua Cheng, Hanzhe Xu, Ruibo Fu, Bin Liu, Yongwei Li,
- Abstract要約: マルチモーダル・デシージャ・データセットMDPEを導入する。
このデータセットは、騙しの特徴に加えて、個性や感情的表現の特徴の個人差情報も含んでいる。
193人の被験者による104時間以上の騙しと感情的なビデオで構成されている。
- 参考スコア(独自算出の注目度): 37.30869857541657
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deception detection has garnered increasing attention in recent years due to the significant growth of digital media and heightened ethical and security concerns. It has been extensively studied using multimodal methods, including video, audio, and text. In addition, individual differences in deception production and detection are believed to play a crucial role.Although some studies have utilized individual information such as personality traits to enhance the performance of deception detection, current systems remain limited, partly due to a lack of sufficient datasets for evaluating performance. To address this issue, we introduce a multimodal deception dataset MDPE. Besides deception features, this dataset also includes individual differences information in personality and emotional expression characteristics. It can explore the impact of individual differences on deception behavior. It comprises over 104 hours of deception and emotional videos from 193 subjects. Furthermore, we conducted numerous experiments to provide valuable insights for future deception detection research. MDPE not only supports deception detection, but also provides conditions for tasks such as personality recognition and emotion recognition, and can even study the relationships between them. We believe that MDPE will become a valuable resource for promoting research in the field of affective computing.
- Abstract(参考訳): 近年、デジタルメディアの著しい成長と倫理的・セキュリティ上の懸念の高まりにより、偽造検出が注目を集めている。
ビデオ、音声、テキストなど、多モーダルな手法で広く研究されている。
また, 偽証生成と検出の個人差が重要な役割を担っていると考えられるが, 個人特性などの個別情報を用いて偽証検出の性能を向上させる研究もあるが, 性能評価に十分なデータセットが不足していることもあって, 現状のシステムには限界がある。
この問題に対処するために,マルチモーダルな偽装データセットMDPEを導入する。
このデータセットは、騙しの特徴に加えて、個性や感情的表現の特徴の個人差情報も含んでいる。
個人差が詐欺行動に与える影響を調べることができる。
193人の被験者による104時間以上の騙しと感情的なビデオで構成されている。
さらに,今後の偽造検出研究に有用な知見を提供するために,多数の実験を行った。
MDPEは詐欺検出だけでなく、人格認識や感情認識といったタスクの条件も提供し、それらの関係を研究できる。
我々はMDPEが感情コンピューティングの分野での研究を促進する貴重な資源になると信じている。
関連論文リスト
- Learning Multimodal Cues of Children's Uncertainty [19.349368123567658]
本研究では,不確実性の非言語的手がかりを研究するために,発達心理学者と認知心理学者との共同で注釈付きデータセットを提案する。
次に、データ分析を行い、不確実性の異なる役割とタスクの難易度とパフォーマンスとの関係について検討する。
最後に、参加者のリアルタイムビデオクリップから不確実性を予測するマルチモーダル機械学習モデルを提案する。
論文 参考訳(メタデータ) (2024-10-17T21:46:00Z) - Recent Trends of Multimodal Affective Computing: A Survey from NLP Perspective [34.76568708378833]
マルチモーダル感情コンピューティング(MAC)は、人間の行動や意図の分析に広く応用されているため、注目を集めている。
本調査は,NLPの観点からのマルチモーダル感情コンピューティングの最近のトレンドを4つのホットタスクにまとめる。
本調査の目的は、マルチモーダル感情研究の現在の展望を探求し、開発動向を特定し、様々なタスクにおける類似点と相違点を明らかにすることである。
論文 参考訳(メタデータ) (2024-09-11T16:24:06Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Knowledge-aware Bayesian Co-attention for Multimodal Emotion Recognition [15.133202035812017]
IEMOCAPデータセットの実験結果から、提案手法は、少なくとも0.7%の未重み付き精度(UA)で、いくつかの最先端アプローチより優れていることが示された。
論文 参考訳(メタデータ) (2023-02-20T09:38:11Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Two-Faced Humans on Twitter and Facebook: Harvesting Social Multimedia
for Human Personality Profiling [74.83957286553924]
我々は、"PERS"と呼ばれる新しい多視点融合フレームワークを適用して、マイアーズ・ブリッグス・パーソナリティ・タイプインジケータを推定する。
実験の結果,多視点データからパーソナリティ・プロファイリングを学習する能力は,多様なソーシャル・マルチメディア・ソースからやってくるデータを効率的に活用できることが示唆された。
論文 参考訳(メタデータ) (2021-06-20T10:48:49Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Video Sentiment Analysis with Bimodal Information-augmented Multi-Head
Attention [7.997124140597719]
本研究では,複数のモダリティの時系列データを含むビデオの感情分析に注目する。
重要な問題は、これらの異種データをどのように融合するかです。
バイモーダル相互作用に基づいて、より重要なバイモーダル特徴はより大きな重みが割り当てられる。
論文 参考訳(メタデータ) (2021-03-03T12:30:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。