論文の概要: Study of Emotion Concept Formation by Integrating Vision, Physiology, and Word Information using Multilayered Multimodal Latent Dirichlet Allocation
- arxiv url: http://arxiv.org/abs/2404.08295v1
- Date: Fri, 12 Apr 2024 07:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 15:35:59.624279
- Title: Study of Emotion Concept Formation by Integrating Vision, Physiology, and Word Information using Multilayered Multimodal Latent Dirichlet Allocation
- Title(参考訳): 多層型マルチモーダル潜在ディリクレアロケーションを用いた視覚・生理・単語情報の統合による感情概念形成の検討
- Authors: Kazuki Tsurumaki, Chie Hieida, Kazuki Miyazawa,
- Abstract要約: 構築された感情の理論は、近年の感情研究で一般的になっている。
感情概念は過去の経験を知識として記憶し、獲得した情報から観測されていない情報を予測することができる。
本研究では,構成的感情理論の観点から構成主義的アプローチを用いて感情概念の形成をモデル化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: How are emotions formed? Through extensive debate and the promulgation of diverse theories , the theory of constructed emotion has become prevalent in recent research on emotions. According to this theory, an emotion concept refers to a category formed by interoceptive and exteroceptive information associated with a specific emotion. An emotion concept stores past experiences as knowledge and can predict unobserved information from acquired information. Therefore, in this study, we attempted to model the formation of emotion concepts using a constructionist approach from the perspective of the constructed emotion theory. Particularly, we constructed a model using multilayered multimodal latent Dirichlet allocation , which is a probabilistic generative model. We then trained the model for each subject using vision, physiology, and word information obtained from multiple people who experienced different visual emotion-evoking stimuli. To evaluate the model, we verified whether the formed categories matched human subjectivity and determined whether unobserved information could be predicted via categories. The verification results exceeded chance level, suggesting that emotion concept formation can be explained by the proposed model.
- Abstract(参考訳): 感情はどのように形成されますか?
広範囲にわたる議論と多様な理論の公布を通じて、構築された感情の理論は、近年の感情研究で一般的になっている。
この理論によれば、感情の概念は特定の感情に関連付けられた知覚的・外受容的な情報によって形成されたカテゴリーを指す。
感情概念は過去の経験を知識として記憶し、獲得した情報から観測されていない情報を予測することができる。
そこで本研究では,構成的感情論の観点から構成主義的アプローチを用いて,感情概念の形成をモデル化する試みを行った。
特に,確率的生成モデルである多層多モード潜在ディリクレアロケーションを用いたモデルを構築した。
次に、異なる視覚的感情誘発刺激を経験した複数の人から得られた視覚、生理学、単語情報を用いて、各被験者のモデルを訓練した。
モデルを評価するため,生成したカテゴリがヒトの主観性と一致したかどうかを検証し,未観測情報がカテゴリによって予測できるかどうかを判定した。
検証結果はチャンスレベルを超え,提案モデルにより感情概念の形成を説明できる可能性が示唆された。
関連論文リスト
- UniEmoX: Cross-modal Semantic-Guided Large-Scale Pretraining for Universal Scene Emotion Perception [8.54013419046987]
視覚的感情分析のためのクロスモーダルな意味誘導型大規模事前学習フレームワークUniEmoXを紹介する。
UniEmoXは、ペア画像と未ペア画像テキストの類似性を利用して、CLIPモデルから豊富な意味知識を抽出し、感情的な埋め込み表現を強化する。
Emo8というタイトルの視覚的感情的データセットを開発し、ほとんどすべての感情的シーンをカバーしています。
論文 参考訳(メタデータ) (2024-09-27T16:12:51Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Fine-Grained Emotion Prediction by Modeling Emotion Definitions [26.098917459551167]
本研究では,感情定義モデルを用いて,テキスト中の感情の微粒化を予測するための新しいフレームワークを提案する。
我々のモデルは、詳細な感情データセットGoEmotionsの既存の最先端よりも優れています。
論文 参考訳(メタデータ) (2021-07-26T12:11:18Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - A Multi-Componential Approach to Emotion Recognition and the Effect of
Personality [0.0]
本稿では,映画視聴中に引き起こされた感情体験を特徴付けるために,データ駆動型アプローチによる構成的枠組みを適用した。
その結果、様々な感情の違いは、数次元(少なくとも6次元)で捉えられることが示唆された。
その結果、限定的な記述子数を持つ成分モデルでは、経験的な離散的感情のレベルを予測できることがわかった。
論文 参考訳(メタデータ) (2020-10-22T01:27:23Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。