論文の概要: Detecting Personality and Emotion Traits in Crowds from Video Sequences
- arxiv url: http://arxiv.org/abs/2104.12927v1
- Date: Tue, 27 Apr 2021 01:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:29:59.282610
- Title: Detecting Personality and Emotion Traits in Crowds from Video Sequences
- Title(参考訳): ビデオシーケンスによる群衆の個性・感情特性の検出
- Authors: Rodolfo Migon Favaretto, Paulo Knob, Soraia Raupp Musse, Felipe
Vilanova, \^Angelo Brandelli Costa
- Abstract要約: 本稿では,ビデオシーケンス中の群衆の個性と基本的な感情特性を検出する手法を提案する。
まず、個人を検知して追跡し、次にグループを認識して特徴付ける。
この情報はOCEAN次元にマッピングされ、ビデオの個性と感情を見つけるために使用されます。
- 参考スコア(独自算出の注目度): 0.7829352305480283
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a methodology to detect personality and basic emotion
characteristics of crowds in video sequences. Firstly, individuals are detected
and tracked, then groups are recognized and characterized. Such information is
then mapped to OCEAN dimensions, used to find out personality and emotion in
videos, based on OCC emotion models. Although it is a clear challenge to
validate our results with real life experiments, we evaluate our method with
the available literature information regarding OCEAN values of different
Countries and also emergent Personal distance among people. Hence, such
analysis refer to cultural differences of each country too. Our results
indicate that this model generates coherent information when compared to data
provided in available literature, as shown in qualitative and quantitative
results.
- Abstract(参考訳): 本稿では,ビデオシーケンス中の群衆の個性と基本的な感情特性を検出する手法を提案する。
まず、個人を検知して追跡し、グループを認識して特徴付ける。
これらの情報はOCEAN次元にマッピングされ、OCCの感情モデルに基づいてビデオ内の個性や感情を見つけるのに使用される。
実生活実験で結果を検証することは明らかな課題であるが,本手法は各国の海洋値に関する文献情報や,個人間の創発的距離を用いて評価する。
したがって、この分析は各国の文化的差異も指す。
本モデルは,質的および定量的な結果に示すように,文献で提供されたデータと比較して一貫性のある情報を生成することを示唆する。
関連論文リスト
- Personality Analysis for Social Media Users using Arabic language and its Effect on Sentiment Analysis [1.2903829793534267]
本研究は、Twitter上でのアラビア語の使用と性格特性と感情分析への影響の相関について検討した。
本研究では、プロフィール活動から抽出した情報と、ツイートの内容に基づいて、ユーザの性格特性を示す。
その結果,人格がソーシャルメディアの感情に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2024-07-08T18:27:54Z) - Vision-Language Models under Cultural and Inclusive Considerations [53.614528867159706]
視覚言語モデル(VLM)は、日常生活の画像を記述することで視覚障害者を支援する。
現在の評価データセットは、多様な文化的ユーザ背景や、このユースケースの状況を反映していない可能性がある。
我々は、字幕の好みを決定するための調査を作成し、視覚障害者によって撮影された画像を含む既存のデータセットであるVizWizをフィルタリングすることで、文化中心の評価ベンチマークを提案する。
次に,複数のVLMを評価し,その信頼性を文化的に多様な環境で視覚アシスタントとして検証した。
論文 参考訳(メタデータ) (2024-07-08T17:50:00Z) - Towards Geographic Inclusion in the Evaluation of Text-to-Image Models [25.780536950323683]
我々は,アフリカ,ヨーロッパ,東南アジアにおけるアノテータの地理的表現,視覚的魅力,実画像および生成画像の一貫性に対する認識の程度について検討した。
例えば、異なる場所のアノテータは、地理的に代表的であると見なされる領域の誇張されたステレオタイプ的な描写について、しばしば意見が一致しない。
自動評価と人的評価を改善するためのステップを推奨する。
論文 参考訳(メタデータ) (2024-05-07T16:23:06Z) - Construction and Evaluation of Mandarin Multimodal Emotional Speech
Database [0.0]
次元アノテーションの妥当性は次元アノテーションデータの統計的解析によって検証される。
7つの感情の認識率は、音響データだけで約82%である。
データベースは高品質であり、音声分析研究の重要な情報源として利用することができる。
論文 参考訳(メタデータ) (2024-01-14T17:56:36Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - BERTHA: Video Captioning Evaluation Via Transfer-Learned Human
Assessment [16.57721566105298]
本稿では,映像キャプションシステムを評価するためのディープラーニングモデルに基づく新しい手法を提案する。
このモデルはBERTをベースにしており、複数のNLPタスクでうまく動作することが示されている言語モデルである。
目的は、モデルが人間のものと似た評価を行うことを学習することである。
論文 参考訳(メタデータ) (2022-01-25T11:29:58Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Investigating Cultural Aspects in the Fundamental Diagram using
Convolutional Neural Networks and Simulation [0.0]
本稿では,ブラジルとドイツにおける文化(個人空間)における重要な属性の違いに着目した。
我々は、CNNを用いて、ビデオシーケンス中の人を検出し、追跡し、Voronoi Diagramsを使って、人の隣り合う関係を見つけます。
個人空間の分析から,人口密度が高く,低密度・中密度の個体群では,行動がより類似していることが判明した。
論文 参考訳(メタデータ) (2020-09-30T14:44:04Z) - Vyaktitv: A Multimodal Peer-to-Peer Hindi Conversations based Dataset
for Personality Assessment [50.15466026089435]
本稿では,ピアツーピアのHindi会話データセットであるVyaktitvを提案する。
参加者の高品質な音声とビデオの録音と、会話ごとにヒングリッシュのテキストによる書き起こしで構成されている。
データセットには、収入、文化的指向など、すべての参加者のための豊富な社会デコグラフィー的特徴が含まれています。
論文 参考訳(メタデータ) (2020-08-31T17:44:28Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。