論文の概要: Automatic Detection of Sentimentality from Facial Expressions
- arxiv url: http://arxiv.org/abs/2209.04908v1
- Date: Sun, 11 Sep 2022 17:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:21:03.776575
- Title: Automatic Detection of Sentimentality from Facial Expressions
- Title(参考訳): 表情からの感性の自動検出
- Authors: Mina Bishay, Jay Turcot, Graham Page and Mohammad Mavadati
- Abstract要約: 我々は、文学にはほとんど作品がない新たな感情状態である感情(心温まりやノスタルジーの強い感情)に取り組む。
我々は、感情的および非感情的な広告を見ている参加者の4.9Kビデオのデータセットを使用し、広告で感情を喚起する瞬間をラベル付けします。
我々は、感情検出のためにAUsアクティベーションを用いた多層パーセプトロン(MLP)を訓練する。
- 参考スコア(独自算出の注目度): 1.2617078020344616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition has received considerable attention from the Computer
Vision community in the last 20 years. However, most of the research focused on
analyzing the six basic emotions (e.g. joy, anger, surprise), with a limited
work directed to other affective states. In this paper, we tackle
sentimentality (strong feeling of heartwarming or nostalgia), a new emotional
state that has few works in the literature, and no guideline defining its
facial markers. To this end, we first collect a dataset of 4.9K videos of
participants watching some sentimental and non-sentimental ads, and then we
label the moments evoking sentimentality in the ads. Second, we use the
ad-level labels and the facial Action Units (AUs) activation across different
frames for defining some weak frame-level sentimentality labels. Third, we
train a Multilayer Perceptron (MLP) using the AUs activation for sentimentality
detection. Finally, we define two new ad-level metrics for evaluating our model
performance. Quantitative and qualitative results show promising results for
sentimentality detection. To the best of our knowledge this is the first work
to address the problem of sentimentality detection.
- Abstract(参考訳): 過去20年間、感情認識はコンピュータビジョンコミュニティからかなりの注目を集めてきた。
しかし、研究の大半は6つの基本的な感情(例えば、喜び、怒り、驚き)を分析し、他の情緒的状態に限定した研究であった。
本稿では,感傷性(心温めやノスタルジーの強い感情)に取り組み,文学にはほとんど作品がなく,顔のマーカーを定義する指針もない新しい感情状態について述べる。
この目的のために、まず、感傷広告と非感傷広告を視聴する参加者の4.9kビデオのデータセットを収集し、次に広告の感傷性を誘発する瞬間をラベル付けする。
第2に,広告レベルのラベルと顔行動単位(aus)のアクティベーションを異なるフレームにまたがって使用し,弱いフレームレベルの感情ラベルを定義した。
第3に、感情検出のためにAUsアクティベーションを用いた多層パーセプトロン(MLP)を訓練する。
最後に、モデルの性能を評価するための2つの新しい広告レベルメトリクスを定義します。
定量的・定性的な結果から,感性検出に有望な結果が得られる。
私たちの知る限りでは、これは感情検出の問題に対処する最初の仕事です。
関連論文リスト
- EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - High-Level Context Representation for Emotion Recognition in Images [4.987022981158291]
画像から高レベルな文脈表現を抽出する手法を提案する。
このモデルは、この表現と感情を関連付けるために、1つのキューと1つのエンコードストリームに依存している。
我々のアプローチは従来のモデルよりも効率的であり、感情認識に関連する現実の問題に対処するために容易に展開できる。
論文 参考訳(メタデータ) (2023-05-05T13:20:41Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Uncovering the Limits of Text-based Emotion Detection [0.0]
感情分類のための最大のコーパスは、GoEmotions、読者によってラベル付けされた58Kメッセージ、Vent、ライターがラベル付けされた33Mメッセージである。
我々はベンチマークを設計し、BERT上に2つのシンプルな新しいモデルを含むいくつかの特徴空間と学習アルゴリズムを評価する。
論文 参考訳(メタデータ) (2021-09-04T16:40:06Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Using Knowledge-Embedded Attention to Augment Pre-trained Language
Models for Fine-Grained Emotion Recognition [0.0]
我々は,事前学習した自己意識モデルに外部知識を導入することで,微粒な感情認識を改善することに集中する。
結果と誤差解析は,複数のデータセットで過去のモデルより優れていた。
論文 参考訳(メタデータ) (2021-07-31T09:41:44Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。