論文の概要: BEE-NET: A deep neural network to identify in-the-wild Bodily Expression
of Emotions
- arxiv url: http://arxiv.org/abs/2402.13955v1
- Date: Wed, 21 Feb 2024 17:35:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 14:17:18.515809
- Title: BEE-NET: A deep neural network to identify in-the-wild Bodily Expression
of Emotions
- Title(参考訳): BEE-NET:感情の身体的表現を特定するディープニューラルネットワーク
- Authors: Mohammad Mahdi Dehshibi and David Masip
- Abstract要約: 本稿では,BEE-NETという新しいマルチストリーム深層畳み込みニューラルネットワークを提案する。
また,学習過程における事前知識として,場所や物体のメタ情報を含む新たな後期融合戦略を提案する。
実験の結果,提案手法はAIBEEの最先端技術を2.07%超えることがわかった。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we investigate how environmental factors, specifically the
scenes and objects involved, can affect the expression of emotions through body
language. To this end, we introduce a novel multi-stream deep convolutional
neural network named BEE-NET. We also propose a new late fusion strategy that
incorporates meta-information on places and objects as prior knowledge in the
learning process. Our proposed probabilistic pooling model leverages this
information to generate a joint probability distribution of both available and
anticipated non-available contextual information in latent space. Importantly,
our fusion strategy is differentiable, allowing for end-to-end training and
capturing of hidden associations among data points without requiring further
post-processing or regularisation. To evaluate our deep model, we use the Body
Language Database (BoLD), which is currently the largest available database for
the Automatic Identification of the in-the-wild Bodily Expression of Emotions
(AIBEE). Our experimental results demonstrate that our proposed approach
surpasses the current state-of-the-art in AIBEE by a margin of 2.07%, achieving
an Emotional Recognition Score of 66.33%.
- Abstract(参考訳): 本研究では,環境要因,特に場面や対象が,身体言語を通じた感情表現にどのように影響するかを検討する。
この目的のために,BEE-NETという新しいマルチストリーム深層畳み込みニューラルネットワークを提案する。
また,学習過程における事前知識として,場所や物体のメタ情報を含む新たな後期融合戦略を提案する。
提案する確率的プーリングモデルでは,この情報を利用して潜在空間における可利用情報と予測可能文脈情報の同時確率分布を生成する。
重要なことは、我々の融合戦略は微分可能であり、さらなる後処理や正規化を必要とせず、エンドツーエンドのトレーニングとデータポイント間の隠れた関連のキャプチャを可能にします。
深層モデルを評価するために、現在利用可能な最大のデータベースであるボディーランゲージデータベース(bold)を使用し、感情のin-the-wildボディー表現(aibee)を自動的に識別します。
実験の結果,提案手法はAIBEEの最先端技術よりも2.07%,感情認識スコア66.33%を達成していることがわかった。
関連論文リスト
- Self-supervised Gait-based Emotion Representation Learning from Selective Strongly Augmented Skeleton Sequences [4.740624855896404]
自己教師型歩行に基づく感情表現のための選択的強強化を利用したコントラスト学習フレームワークを提案する。
提案手法はEmotion-Gait (E-Gait) と Emilya のデータセットで検証され, 異なる評価プロトコル下での最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-08T09:13:10Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - EMERSK -- Explainable Multimodal Emotion Recognition with Situational
Knowledge [0.0]
状況知識を用いた説明可能なマルチモーダル感情認識(EMERSK)を提案する。
EMERSKは視覚情報を用いた人間の感情認識と説明のための汎用システムである。
本システムは, 表情, 姿勢, 歩行などの複数のモーダルを柔軟かつモジュラーな方法で処理することができる。
論文 参考訳(メタデータ) (2023-06-14T17:52:37Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Subject Independent Emotion Recognition using EEG Signals Employing
Attention Driven Neural Networks [2.76240219662896]
主観非依存の感情認識が可能な新しいディープラーニングフレームワークを提案する。
タスクを実行するために、アテンションフレームワークを備えた畳み込みニューラルネットワーク(CNN)を提示する。
提案手法は、公開データセットを使用して検証されている。
論文 参考訳(メタデータ) (2021-06-07T09:41:15Z) - Leveraging Semantic Scene Characteristics and Multi-Stream Convolutional
Architectures in a Contextual Approach for Video-Based Visual Emotion
Recognition in the Wild [31.40575057347465]
私たちは、野生のビデオベースの視覚感情認識のタスクに取り組みます。
身体および顔の特徴の抽出のみに依存する標準的な方法論は、しばしば正確な感情予測に欠ける。
我々は、シーンの特徴や属性の形で視覚的コンテキストを活用することで、この問題を軽減することを目指している。
論文 参考訳(メタデータ) (2021-05-16T17:31:59Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。