論文の概要: Free Energy in a Circumplex Model of Emotion
- arxiv url: http://arxiv.org/abs/2407.02474v1
- Date: Tue, 2 Jul 2024 17:52:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 14:17:26.466353
- Title: Free Energy in a Circumplex Model of Emotion
- Title(参考訳): 感情の円積モデルにおける自由エネルギー
- Authors: Candice Pattisapu, Tim Verbelen, Riddhi J. Pitliya, Alex B. Kiefer, Mahault Albarracin,
- Abstract要約: 感情科学では、感情はしばしば多次元として表現される。
本研究では,感情を2次元の原子価と覚醒スペクトルにマッピングすることで,感情の円積モデルを採用することを提案する。
情緒的状態において,先行と対象存在の操作が常識的変動をもたらすことを示す。
- 参考スコア(独自算出の注目度): 3.4250441939241063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous active inference accounts of emotion translate fluctuations in free energy to a sense of emotion, mainly focusing on valence. However, in affective science, emotions are often represented as multi-dimensional. In this paper, we propose to adopt a Circumplex Model of emotion by mapping emotions into a two-dimensional spectrum of valence and arousal. We show how one can derive a valence and arousal signal from an agent's expected free energy, relating arousal to the entropy of posterior beliefs and valence to utility less expected utility. Under this formulation, we simulate artificial agents engaged in a search task. We show that the manipulation of priors and object presence results in commonsense variability in emotional states.
- Abstract(参考訳): 感情の以前の活発な推測は、自由エネルギーの変動を、主に原子価に焦点を当てた感情の感覚に変換した。
しかし、感情科学では、感情は多次元として表されることが多い。
本稿では,感情を2次元の原子価と覚醒スペクトルにマッピングすることで,感情の円積モデルを採用することを提案する。
本研究では, エージェントが期待する自由エネルギーから, 後続の信念のエントロピーと, 実用性に劣る実用性に起因して, 有価と覚醒のシグナルを導出する方法を示す。
この定式化の下では,探索作業に従事する人工エージェントをシミュレートする。
情緒的状態において,先行と対象存在の操作が常識的変動をもたらすことを示す。
関連論文リスト
- A Unified and Interpretable Emotion Representation and Expression Generation [38.321248253111776]
我々はC2A2と呼ばれる解釈可能で統一された感情モデルを提案する。
生成した画像は豊かであり、微妙な表現を捉えていることを示す。
論文 参考訳(メタデータ) (2024-04-01T17:03:29Z) - Free energy model of emotional valence in dual-process perceptions [0.0]
適切な覚醒レベルは肯定的な感情を誘発し、高い覚醒電位は否定的な感情を引き起こす。
本稿では,人間の認知の二重過程における覚醒ポテンシャル変化の数学的枠組みを提案する。
ベイズ事前の変更として, 自動過程から制御過程への移行を二重過程で定式化する。
論文 参考訳(メタデータ) (2022-10-19T02:52:13Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Emotion Recognition under Consideration of the Emotion Component Process
Model [9.595357496779394]
我々はScherer (2005) による感情成分プロセスモデル (CPM) を用いて感情コミュニケーションを説明する。
CPMは、感情は、出来事、すなわち主観的感情、認知的評価、表現、生理的身体反応、動機的行動傾向に対する様々なサブコンポーネントの協調過程であると述べている。
Twitter上での感情は、主に出来事の説明や主観的な感情の報告によって表現されているのに対し、文献では、著者はキャラクターが何をしているかを記述し、解釈を読者に任せることを好む。
論文 参考訳(メタデータ) (2021-07-27T15:53:25Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。