論文の概要: A Protocol for Emotions
- arxiv url: http://arxiv.org/abs/2110.15695v1
- Date: Fri, 29 Oct 2021 11:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 19:16:56.065710
- Title: A Protocol for Emotions
- Title(参考訳): 感情のプロトコル
- Authors: Gabriele Costa
- Abstract要約: 2つの知的エージェント間で感情を伝達するための高レベルプロトコルを解析する。
これは人間の感情の交換をモデル化するために通信プロトコルを使用する最初の試みである。
- 参考スコア(独自算出の注目度): 0.928984688729885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We tend to consider emotions a manifestation of our innermost nature of human
beings. Emotions characterize our lives in many ways and they chaperon every
rational activity we carry out. Despite their pervasiveness, there are still
many things we ignore about emotions. Among them, our understanding of how
living beings transfer emotions is limited. In particular, there are highly
sophisticated interactions between human beings that we would like to
comprehend. For instance, think of a movie director who knows in advance the
strong emotional impact that a certain scene will have on the spectators.
Although many artists rely on some emotional devices, their talent and vision
are still the key factors.
In this work we analyze high-level protocols for transferring emotions
between two intelligent agents. To the best of our knowledge, this is the first
attempt to use communication protocols for modeling the exchange of human
emotions. By means of a number of examples, we show that our protocols
adequately model the engagement of the two parties. Beyond the theoretical
interest, our proposal can provide a stepping stone for several applications
that we also discuss in this paper.
- Abstract(参考訳): 私たちは感情を人間の最も内面的な性質の顕現と考える傾向がある。
感情は私たちの生活を様々な方法で特徴づけ、実行している合理的な活動をすべてシャペロンします。
彼らの広汎性にもかかわらず、感情について無視するものはたくさんあります。
その中で、生物がいかに感情を伝達するかという私たちの理解は限られている。
特に、私たちが理解したいと思う人間同士の高度な相互作用がある。
例えば、あるシーンが観客に与える強い感情的な影響を事前に知っている映画監督を考えてみましょう。
多くのアーティストは感情的なデバイスに頼っているが、その才能とビジョンが依然として重要な要素だ。
本研究では,2つの知的エージェント間の感情伝達のための高レベルプロトコルを分析する。
我々の知る限りでは、人間の感情の交換をモデル化するためにコミュニケーションプロトコルを使用する最初の試みである。
いくつかの例から,我々のプロトコルが両者の関与を適切にモデル化していることを示す。
理論的な関心以外にも,本提案は,本論文で議論するいくつかの応用への一歩となる。
関連論文リスト
- The Good, The Bad, and Why: Unveiling Emotions in Generative AI [76.40058756117445]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When
Predicting Emotion [97.98240591442922]
本研究では,人間の感情が感情の予測において,モデルが有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを使って、感情のトリガーを識別する大きな言語モデルの評価を行う。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Where are We in Event-centric Emotion Analysis? Bridging Emotion Role
Labeling and Appraisal-based Approaches [10.736626320566707]
テキストにおける感情分析という用語は、様々な自然言語処理タスクを仮定する。
感情と出来事は2つの方法で関連していると我々は主張する。
我々は,NLPモデルに心理的評価理論を組み込んで事象を解釈する方法について議論する。
論文 参考訳(メタデータ) (2023-09-05T09:56:29Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Emotion Recognition under Consideration of the Emotion Component Process
Model [9.595357496779394]
我々はScherer (2005) による感情成分プロセスモデル (CPM) を用いて感情コミュニケーションを説明する。
CPMは、感情は、出来事、すなわち主観的感情、認知的評価、表現、生理的身体反応、動機的行動傾向に対する様々なサブコンポーネントの協調過程であると述べている。
Twitter上での感情は、主に出来事の説明や主観的な感情の報告によって表現されているのに対し、文献では、著者はキャラクターが何をしているかを記述し、解釈を読者に任せることを好む。
論文 参考訳(メタデータ) (2021-07-27T15:53:25Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Emotion Dynamics in Movie Dialogues [25.289525325790414]
発話を通して感情のダイナミクスを追跡する枠組みを提案する。
我々はこの手法を用いて、映画キャラクタの感情的弧をトレースする。
このような何千もの文字アークを分析し、ストーリーのより広い理解を知らせる仮説をテストします。
論文 参考訳(メタデータ) (2021-03-01T23:02:16Z) - CARE: Commonsense-Aware Emotional Response Generation with Latent
Concepts [42.106573635463846]
本研究では,コモンセンスを意識した感情応答生成のための新しいモデルCAREを提案する。
まず,その応答の感情的潜在概念を共通認識で学習し,構築する枠組みを提案する。
次に, 潜在概念を反応生成に協調的に組み込む3つの手法を提案する。
論文 参考訳(メタデータ) (2020-12-15T15:47:30Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。