論文の概要: The influence of persona and conversational task on social interactions with a LLM-controlled embodied conversational agent
- arxiv url: http://arxiv.org/abs/2411.05653v1
- Date: Fri, 08 Nov 2024 15:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:53:57.018614
- Title: The influence of persona and conversational task on social interactions with a LLM-controlled embodied conversational agent
- Title(参考訳): LLM制御型会話エージェントとの社会的相互作用に及ぼすペルソナと会話課題の影響
- Authors: Leon O. H. Kroczek, Alexander May, Selina Hettenkofer, Andreas Ruider, Bernd Ludwig, Andreas Mühlberger,
- Abstract要約: LLMを仮想人間として具現化することで、ユーザーはバーチャルリアリティーで対面のソーシャルインタラクションを行うことができる。
LLMがコントロールするエージェントとの社会的相互作用における人的・タスク的要因の影響はいまだ不明である。
- 参考スコア(独自算出の注目度): 40.26872152499122
- License:
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities in conversational tasks. Embodying an LLM as a virtual human allows users to engage in face-to-face social interactions in Virtual Reality. However, the influence of person- and task-related factors in social interactions with LLM-controlled agents remains unclear. In this study, forty-six participants interacted with a virtual agent whose persona was manipulated as extravert or introvert in three different conversational tasks (small talk, knowledge test, convincing). Social-evaluation, emotional experience, and realism were assessed using ratings. Interactive engagement was measured by quantifying participants' words and conversational turns. Finally, we measured participants' willingness to ask the agent for help during the knowledge test. Our findings show that the extraverted agent was more positively evaluated, elicited a more pleasant experience and greater engagement, and was assessed as more realistic compared to the introverted agent. Whereas persona did not affect the tendency to ask for help, participants were generally more confident in the answer when they had help of the LLM. Variation of personality traits of LLM-controlled embodied virtual agents, therefore, affects social-emotional processing and behavior in virtual interactions. Embodied virtual agents allow the presentation of naturalistic social encounters in a virtual environment.
- Abstract(参考訳): 大きな言語モデル(LLM)は会話タスクにおいて顕著な能力を示した。
LLMを仮想人間として具現化することで、ユーザーはバーチャルリアリティーで対面のソーシャルインタラクションを行うことができる。
しかし, LLM制御エージェントとの社会的相互作用における人的・タスク的要因の影響はいまだ不明である。
本研究では,3つの会話課題(小話,知識テスト,説得力)において,人格を外向的,内向的に操作した仮想エージェントと46人の参加者が対話した。
社会的評価、感情経験、リアリズムは評価によって評価された。
参加者の言葉と会話のターンを定量化し,対話的エンゲージメントを測定した。
最後に,知識テストにおいて,エージェントに助けを求めたい参加者の意思を測定した。
以上の結果から, 内向剤よりも外向剤がより肯定的に評価され, 良好な経験とエンゲージメントが得られ, 内向剤よりも現実的に評価された。
ペルソナは援助を求める傾向に影響を与えなかったが, LLMの援助を受けた場合, 参加者は一般に回答に自信を持っていた。
LLM制御された仮想エージェントの性格特性の変化は、仮想相互作用における社会的感情処理と行動に影響を及ぼす。
仮想エージェントは、仮想環境における自然主義的な社会的出会いの提示を可能にする。
関連論文リスト
- Spontaneous Emergence of Agent Individuality through Social Interactions in LLM-Based Communities [0.0]
本稿では,Large Language Model (LLM) ベースのエージェントを用いて,ゼロからエージェントが出現することを検討する。
このマルチエージェントシミュレーションを解析することにより、社会的規範、協力、性格特性が自然に出現する方法について、貴重な新しい知見を報告する。
論文 参考訳(メタデータ) (2024-11-05T16:49:33Z) - I Want to Break Free! Persuasion and Anti-Social Behavior of LLMs in Multi-Agent Settings with Social Hierarchy [13.68625980741047]
本研究では,Large Language Model (LLM) に基づくエージェントの相互作用パターンについて,厳密な社会的階層を特徴とする文脈で検討する。
本研究では,警備員と囚人エージェントが関与するシミュレートシナリオにおける説得と反社会的行動の2つの現象について検討した。
論文 参考訳(メタデータ) (2024-10-09T17:45:47Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Virtual Agents for Alcohol Use Counseling: Exploring LLM-Powered Motivational Interviewing [7.899257236779216]
アルコール使用カウンセリングのためのモチベーション面接(MI)を行う仮想カウンセラーを開発した。
当社のアプローチでは,迅速なエンジニアリングと統合をユーザフレンドリな仮想プラットフォームに統合し,現実的で共感的なインタラクションを促進する。
論文 参考訳(メタデータ) (2024-07-10T23:50:08Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - CloChat: Understanding How People Customize, Interact, and Experience
Personas in Large Language Models [15.915071948354466]
CloChatは、大規模言語モデルにおけるエージェントペルソナの簡単かつ正確なカスタマイズをサポートするインターフェースである。
その結果、参加者はカスタマイズされたエージェントと感情結合を形成し、よりダイナミックな対話を行い、相互作用を持続することに興味を示した。
論文 参考訳(メタデータ) (2024-02-23T11:25:17Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - SPA: Verbal Interactions between Agents and Avatars in Shared Virtual
Environments using Propositional Planning [61.335252950832256]
SPA(Sense-Plan-Ask)は、仮想的な仮想環境において、仮想的な人間のようなエージェントとユーザアバターの間の言語的対話を生成する。
提案アルゴリズムは実行時コストを小さくし,自然言語通信を利用せずにエージェントよりも効率的に目標を達成できることが判明した。
論文 参考訳(メタデータ) (2020-02-08T23:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。