論文の概要: Detecting Personality and Emotion Traits in Crowds from Video Sequences
- arxiv url: http://arxiv.org/abs/2104.12927v1
- Date: Tue, 27 Apr 2021 01:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:29:59.282610
- Title: Detecting Personality and Emotion Traits in Crowds from Video Sequences
- Title(参考訳): ビデオシーケンスによる群衆の個性・感情特性の検出
- Authors: Rodolfo Migon Favaretto, Paulo Knob, Soraia Raupp Musse, Felipe
Vilanova, \^Angelo Brandelli Costa
- Abstract要約: 本稿では,ビデオシーケンス中の群衆の個性と基本的な感情特性を検出する手法を提案する。
まず、個人を検知して追跡し、次にグループを認識して特徴付ける。
この情報はOCEAN次元にマッピングされ、ビデオの個性と感情を見つけるために使用されます。
- 参考スコア(独自算出の注目度): 0.7829352305480283
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a methodology to detect personality and basic emotion
characteristics of crowds in video sequences. Firstly, individuals are detected
and tracked, then groups are recognized and characterized. Such information is
then mapped to OCEAN dimensions, used to find out personality and emotion in
videos, based on OCC emotion models. Although it is a clear challenge to
validate our results with real life experiments, we evaluate our method with
the available literature information regarding OCEAN values of different
Countries and also emergent Personal distance among people. Hence, such
analysis refer to cultural differences of each country too. Our results
indicate that this model generates coherent information when compared to data
provided in available literature, as shown in qualitative and quantitative
results.
- Abstract(参考訳): 本稿では,ビデオシーケンス中の群衆の個性と基本的な感情特性を検出する手法を提案する。
まず、個人を検知して追跡し、グループを認識して特徴付ける。
これらの情報はOCEAN次元にマッピングされ、OCCの感情モデルに基づいてビデオ内の個性や感情を見つけるのに使用される。
実生活実験で結果を検証することは明らかな課題であるが,本手法は各国の海洋値に関する文献情報や,個人間の創発的距離を用いて評価する。
したがって、この分析は各国の文化的差異も指す。
本モデルは,質的および定量的な結果に示すように,文献で提供されたデータと比較して一貫性のある情報を生成することを示唆する。
関連論文リスト
- Construction and Evaluation of Mandarin Multimodal Emotional Speech
Database [0.0]
次元アノテーションの妥当性は次元アノテーションデータの統計的解析によって検証される。
7つの感情の認識率は、音響データだけで約82%である。
データベースは高品質であり、音声分析研究の重要な情報源として利用することができる。
論文 参考訳(メタデータ) (2024-01-14T17:56:36Z) - Towards Explaining Demographic Bias through the Eyes of Face Recognition
Models [6.889667606945215]
データとアルゴリズムの両方に固有のバイアスは、機械学習(ML)ベースの意思決定システムの公平性を最適以下にする。
我々は、異なる人口集団を処理する際に、顔認識モデルの振る舞いの違いを分析する一連の説明可能性ツールを提供することを目標としている。
我々は、アクティベーションマップに基づく高次統計情報を活用して、FRモデルの行動差を特定の顔領域に関連付ける説明可能性ツールを構築する。
論文 参考訳(メタデータ) (2022-08-29T07:23:06Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - BERTHA: Video Captioning Evaluation Via Transfer-Learned Human
Assessment [16.57721566105298]
本稿では,映像キャプションシステムを評価するためのディープラーニングモデルに基づく新しい手法を提案する。
このモデルはBERTをベースにしており、複数のNLPタスクでうまく動作することが示されている言語モデルである。
目的は、モデルが人間のものと似た評価を行うことを学習することである。
論文 参考訳(メタデータ) (2022-01-25T11:29:58Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Investigating Cultural Aspects in the Fundamental Diagram using
Convolutional Neural Networks and Simulation [0.0]
本稿では,ブラジルとドイツにおける文化(個人空間)における重要な属性の違いに着目した。
我々は、CNNを用いて、ビデオシーケンス中の人を検出し、追跡し、Voronoi Diagramsを使って、人の隣り合う関係を見つけます。
個人空間の分析から,人口密度が高く,低密度・中密度の個体群では,行動がより類似していることが判明した。
論文 参考訳(メタデータ) (2020-09-30T14:44:04Z) - Group-Level Emotion Recognition Using a Unimodal Privacy-Safe
Non-Individual Approach [0.0]
本稿は、Emotion Recognition in the Wild (EmotiW) Challenge 2020 1における、オーディオビデオグループ感情認識サブタスクに対する、プライバシー保護と非個人的提案について紹介する。
論文 参考訳(メタデータ) (2020-09-15T12:25:33Z) - Vyaktitv: A Multimodal Peer-to-Peer Hindi Conversations based Dataset
for Personality Assessment [50.15466026089435]
本稿では,ピアツーピアのHindi会話データセットであるVyaktitvを提案する。
参加者の高品質な音声とビデオの録音と、会話ごとにヒングリッシュのテキストによる書き起こしで構成されている。
データセットには、収入、文化的指向など、すべての参加者のための豊富な社会デコグラフィー的特徴が含まれています。
論文 参考訳(メタデータ) (2020-08-31T17:44:28Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。