論文の概要: Bridging the gap between emotion and joint action
- arxiv url: http://arxiv.org/abs/2108.06264v1
- Date: Fri, 13 Aug 2021 14:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 15:37:14.861445
- Title: Bridging the gap between emotion and joint action
- Title(参考訳): 感情と関節行動のギャップを埋める
- Authors: M. M. N. Bie\'nkiewicz (1), A. Smykovskyi (1), T. Olugbade (2), S.
Janaqi (1), A. Camurri (3), N. Bianchi-Berthouze (2), M. Bj\"orkman (4), B.
G. Bardy (1) ((1) EuroMov Digital Health in Motion Univ. Montpellier IMT
Mines Ales France, (2) UCL, University College of London UK, (3) UNIGE
InfoMus Casa Paganini Italy, (4) KTH Royal Institute of Technology Sweden)
- Abstract要約: 共同行動は、個人(と感情の具体化)を空間的、時間的に一緒にする。
しかし、個々の感情が集団内の具体的存在を通じてどのように伝播するか、そして共同行動が個人の感情をどのように変化させるかについてはほとんど分かっていない。
本稿では,まずそのギャップを識別し,様々な科学分野の感情と行動の強い絡み合いを示す証拠を蓄積する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our daily human life is filled with a myriad of joint action moments, be it
children playing, adults working together (i.e., team sports), or strangers
navigating through a crowd. Joint action brings individuals (and embodiment of
their emotions) together, in space and in time. Yet little is known about how
individual emotions propagate through embodied presence in a group, and how
joint action changes individual emotion. In fact, the multi-agent component is
largely missing from neuroscience-based approaches to emotion, and reversely
joint action research has not found a way yet to include emotion as one of the
key parameters to model socio-motor interaction. In this review, we first
identify the gap and then stockpile evidence showing strong entanglement
between emotion and acting together from various branches of sciences. We
propose an integrative approach to bridge the gap, highlight five research
avenues to do so in behavioral neuroscience and digital sciences, and address
some of the key challenges in the area faced by modern societies.
- Abstract(参考訳): 私たちの日々の生活は、子供の遊び、大人が一緒に働く(チームスポーツ)、または群衆をナビゲートする見知らぬ人など、無数の共同行動モーメントで満たされています。
共同行動は、個人(および感情の具現化)を、空間的、時間的に結びつける。
しかし、個々の感情が集団内に存在することでどのように伝播するか、そして共同行動が個人の感情をどのように変化させるかについてはほとんど分かっていない。
実際、マルチエージェントコンポーネントは、主に神経科学に基づく感情へのアプローチに欠けており、逆の合同行動研究は、社会-運動の相互作用をモデル化するための重要なパラメータの1つとして感情を含める方法を見つけていない。
本稿では,まずそのギャップを識別し,様々な科学分野の感情と行動の強い絡み合いを示す証拠を蓄積する。
我々は,このギャップを埋める統合的アプローチを提案し,行動神経科学とデジタルサイエンスの5つの研究方法を強調し,現代社会が直面する領域における重要な課題に対処する。
関連論文リスト
- Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Exploring Emotions in Multi-componential Space using Interactive VR Games [1.1510009152620668]
インタラクティブバーチャルリアリティ(VR)ゲームを用いたデータ駆動型アプローチを運用した。
機械学習(ML)手法を用いて、各コンポーネントの感情分化に対するユニークな貢献を識別した。
これらの知見は、感情研究におけるVR環境の利用にも影響する。
論文 参考訳(メタデータ) (2024-04-04T06:54:44Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - UniMSE: Towards Unified Multimodal Sentiment Analysis and Emotion
Recognition [32.34485263348587]
マルチモーダル感情分析(MSA)と会話における感情認識(ERC)は、コンピュータが人間の行動を理解する上で重要な研究課題である。
我々は,MSAとERCタスクを特徴,ラベル,モデルから統合するマルチモーダル感情知識共有フレームワーク(UniMSE)を提案する。
我々は、統語的・意味的なレベルでモダリティ融合を行い、感情と感情の差異と一貫性をよりよく捉えるために、モダリティとサンプルの対比学習を導入する。
論文 参考訳(メタデータ) (2022-11-21T08:46:01Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - CogIntAc: Modeling the Relationships between Intention, Emotion and
Action in Interactive Process from Cognitive Perspective [15.797390372732973]
個人間相互作用の新たな認知枠組みを提案する。
フレームワークの中核は、個人が内的意図によって駆動される外部行動を通じて相互作用を達成することである。
論文 参考訳(メタデータ) (2022-05-07T03:54:51Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - A Multi-Componential Approach to Emotion Recognition and the Effect of
Personality [0.0]
本稿では,映画視聴中に引き起こされた感情体験を特徴付けるために,データ駆動型アプローチによる構成的枠組みを適用した。
その結果、様々な感情の違いは、数次元(少なくとも6次元)で捉えられることが示唆された。
その結果、限定的な記述子数を持つ成分モデルでは、経験的な離散的感情のレベルを予測できることがわかった。
論文 参考訳(メタデータ) (2020-10-22T01:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。