論文の概要: Can Generative Agents Predict Emotion?
- arxiv url: http://arxiv.org/abs/2402.04232v2
- Date: Wed, 7 Feb 2024 17:27:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 11:49:45.298431
- Title: Can Generative Agents Predict Emotion?
- Title(参考訳): 生成エージェントは感情を予測できるか?
- Authors: Ciaran Regan, Nanami Iwahashi, Shogo Tanaka, Mizuki Oka
- Abstract要約: 大規模言語モデル (LLM) は、多くの人間のような能力を示してきたが、LLMの共感的な理解と感情状態は、まだ人間のものと一致していない。
生成的LLMエージェントの感情状態が,新たな出来事を知覚し,新たな体験を過去の記憶と比較する新しいアーキテクチャを導入することにより,どのように進化していくかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated a number of human-like
abilities, however the empathic understanding and emotional state of LLMs is
yet to be aligned to that of humans. In this work, we investigate how the
emotional state of generative LLM agents evolves as they perceive new events,
introducing a novel architecture in which new experiences are compared to past
memories. Through this comparison, the agent gains the ability to understand
new experiences in context, which according to the appraisal theory of emotion
is vital in emotion creation. First, the agent perceives new experiences as
time series text data. After perceiving each new input, the agent generates a
summary of past relevant memories, referred to as the norm, and compares the
new experience to this norm. Through this comparison we can analyse how the
agent reacts to the new experience in context. The PANAS, a test of affect, is
administered to the agent, capturing the emotional state of the agent after the
perception of the new event. Finally, the new experience is then added to the
agents memory to be used in the creation of future norms. By creating multiple
experiences in natural language from emotionally charged situations, we test
the proposed architecture on a wide range of scenarios. The mixed results
suggests that introducing context can occasionally improve the emotional
alignment of the agent, but further study and comparison with human evaluators
is necessary. We hope that this paper is another step towards the alignment of
generative agents.
- Abstract(参考訳): 大規模言語モデル(llm)は多くの人間のような能力を示しているが、llmの共感的理解と感情状態はまだ人間のそれと一致していない。
本研究では,新しいイベントを知覚することで,生成型llmエージェントの感情状態がどのように進化するかを調査し,新しい体験を過去の記憶と比較する新しいアーキテクチャを導入する。
この比較を通じて、エージェントは文脈における新しい体験を理解する能力を得る。
まず、エージェントは新しい経験を時系列テキストデータとして認識する。
新しい入力を知覚した後、エージェントは、標準と呼ばれる過去の関連する記憶の要約を生成し、新しい体験をこの規範と比較する。
この比較を通じて、エージェントがコンテキストにおける新しい体験にどのように反応するかを分析することができる。
パナスは、影響の試験であり、エージェントに投与され、新しい出来事を知覚した後、エージェントの感情状態をキャプチャする。
最後に、新しいエクスペリエンスがエージェントメモリに追加され、将来の標準の作成に使用される。
感情的にチャージされた状況から自然言語で複数の経験を作ることで、提案するアーキテクチャを幅広いシナリオでテストする。
コンテクストの導入は時々エージェントの感情的アライメントを改善するが、さらなる研究と人間の蒸発器との比較が必要であることが示唆された。
この論文は、生成剤のアライメントへの別の一歩となることを願っている。
関連論文リスト
- Spontaneous Emergence of Agent Individuality through Social Interactions in LLM-Based Communities [0.0]
本稿では,Large Language Model (LLM) ベースのエージェントを用いて,ゼロからエージェントが出現することを検討する。
このマルチエージェントシミュレーションを解析することにより、社会的規範、協力、性格特性が自然に出現する方法について、貴重な新しい知見を報告する。
論文 参考訳(メタデータ) (2024-11-05T16:49:33Z) - BattleAgent: Multi-modal Dynamic Emulation on Historical Battles to Complement Historical Analysis [62.60458710368311]
本稿では,大規模視覚言語モデルとマルチエージェントシステムを組み合わせたエミュレーションシステムであるBattleAgentを提案する。
複数のエージェント間の複雑な動的相互作用をシミュレートし、エージェントとその環境をシミュレートすることを目的としている。
指導者の意思決定プロセスと、兵士のような一般参加者の視点の両方をエミュレートする。
論文 参考訳(メタデータ) (2024-04-23T21:37:22Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Generative Agents: Interactive Simulacra of Human Behavior [86.1026716646289]
生成エージェントを導入し,人間の振る舞いをシミュレートする計算ソフトウェアエージェントについて紹介する。
エージェントの経験の完全な記録を格納するために,大規模言語モデルを拡張するアーキテクチャについて述べる。
The Simsにインスパイアされた対話型サンドボックス環境に生成エージェントを投入する。
論文 参考訳(メタデータ) (2023-04-07T01:55:19Z) - e-Genia3 An AgentSpeak extension for empathic agents [0.0]
e-Genia3は、共感的エージェントの開発を支援するためのAgentSpeakの拡張である。
e-Genia3は、分析された事象と、エージェントの感情状態と性格に応じて、エージェントの推論プロセスを選択プランに修正する。
論文 参考訳(メタデータ) (2022-08-01T10:53:25Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Emotion Carrier Recognition from Personal Narratives [74.24768079275222]
パーソナル・ナラティブズ(Personal Narratives、PN)は、自分の経験から事実、出来事、思考を回想するものである。
感情キャリア認識(ECR)のための新しい課題を提案する。
論文 参考訳(メタデータ) (2020-08-17T17:16:08Z) - Conceptual Metaphors Impact Perceptions of Human-AI Collaboration [29.737986509769808]
低い能力を示すメタファーは、高い能力を示すメタファーよりも、エージェントのより良い評価につながることが分かっています。
第2の研究では、メタファーによって予測される能力が増加するにつれて、採用の意図が急速に低下することを確認する。
これらの結果から,プロジェクション能力は新規利用者を惹きつけるのに役立つ可能性が示唆された。
論文 参考訳(メタデータ) (2020-08-05T18:39:56Z) - A Proposal for Intelligent Agents with Episodic Memory [0.9236074230806579]
エージェントはエピソード記憶の恩恵を受けるだろうと我々は主張する。
このメモリはエージェントの経験をエージェントが経験を信頼できるようにエンコードする。
本稿では,ANNと標準計算機科学技術を組み合わせて,エピソード記憶の記憶と検索を支援するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-05-07T00:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。