論文の概要: The Bots of Persuasion: Examining How Conversational Agents' Linguistic Expressions of Personality Affect User Perceptions and Decisions
- arxiv url: http://arxiv.org/abs/2602.17185v1
- Date: Thu, 19 Feb 2026 09:10:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.817839
- Title: The Bots of Persuasion: Examining How Conversational Agents' Linguistic Expressions of Personality Affect User Perceptions and Decisions
- Title(参考訳): 説得のボット:会話エージェントの言語表現がユーザーの知覚と判断に与える影響について
- Authors: Uğur Genç, Heng Gu, Chadha Degachi, Evangelos Niforatos, Senthil Chandrasegaran, Himanshu Verma,
- Abstract要約: 大規模言語モデルを用いた対話エージェント(CA)は、言語を通して洗練された個人性を投影する能力が高まっている。
本研究では,CAパーソナリティの言語的表現が,慈善提供の文脈におけるユーザの判断や知覚にどのように影響するかを検討する。
以上の結果から,CAが操作の手段として持つリスクが,ユーザの認識や判断に微妙に影響を与えていることが示唆された。
- 参考スコア(独自算出の注目度): 14.362949339129637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model-powered conversational agents (CAs) are increasingly capable of projecting sophisticated personalities through language, but how these projections affect users is unclear. We thus examine how CA personalities expressed linguistically affect user decisions and perceptions in the context of charitable giving. In a crowdsourced study, 360 participants interacted with one of eight CAs, each projecting a personality composed of three linguistic aspects: attitude (optimistic/pessimistic), authority (authoritative/submissive), and reasoning (emotional/rational). While the CA's composite personality did not affect participants' decisions, it did affect their perceptions and emotional responses. Particularly, participants interacting with pessimistic CAs felt lower emotional state and lower affinity towards the cause, perceived the CA as less trustworthy and less competent, and yet tended to donate more toward the charity. Perceptions of trust, competence, and situational empathy significantly predicted donation decisions. Our findings emphasize the risks CAs pose as instruments of manipulation, subtly influencing user perceptions and decisions.
- Abstract(参考訳): 大規模言語モデルを用いた対話エージェント(CA)は、言語を通して洗練された個人性を投影する能力がますます高まっているが、これらの予測がユーザに与える影響は明らかではない。
そこで本稿では,CAパーソナリティの言語的表現が,慈善提供の文脈におけるユーザの判断や知覚にどのように影響するかを検討する。
クラウドソースによる調査では、360人の参加者が8つのCAのうちの1つと対話し、それぞれが態度(最適化的/悲観的)、権威(権威的/従属的)、推論(感情的/合理的)という3つの言語的側面からなる性格を投影した。
CAの複合的性格は参加者の判断に影響を与えなかったが、その知覚と感情的反応に影響を及ぼした。
特に、悲観的なCAと相互作用する参加者は、感情状態が低く、原因への親和性が低いと感じ、CAを信頼性が低く、有能でないと認識した。
信頼、能力、状況に対する共感の認識は寄付決定を著しく予測した。
以上の結果から,CAが操作の手段として持つリスクが,ユーザの認識や判断に微妙に影響を与えていることが示唆された。
関連論文リスト
- Vibe Check: Understanding the Effects of LLM-Based Conversational Agents' Personality and Alignment on User Perceptions in Goal-Oriented Tasks [2.1117030125341385]
大きな言語モデル(LLM)は、会話エージェント(CA)が特有の個性を表現することを可能にする。
本研究では、目標指向タスクにおける人格表現レベルとユーザエージェントの人格アライメントが知覚に与える影響について検討する。
論文 参考訳(メタデータ) (2025-09-11T21:43:49Z) - Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - The Dark Patterns of Personalized Persuasion in Large Language Models: Exposing Persuasive Linguistic Features for Big Five Personality Traits in LLMs Responses [0.0]
我々は、ビッグファイブ・パーソナリティの様々なレベルにおけるパーソナリティに影響を与えるのに不可欠な13の言語的特徴を同定する。
モデルでは、不安関連語を神経症に用い、達成関連語を良心に用い、経験へのオープンネスのために認知過程語を減らしている。
論文 参考訳(メタデータ) (2024-11-08T23:02:59Z) - Large Language Models Can Infer Personality from Free-Form User Interactions [0.0]
GPT-4は、パーソナリティを適度な精度で推測することができ、以前のアプローチよりも優れていた。
その結果,人格評価への直接的注力は,ユーザエクスペリエンスの低下を招いていないことがわかった。
予備的な分析は、人格推定の正確さは、社会デミノグラフィーのサブグループによってわずかに異なることを示唆している。
論文 参考訳(メタデータ) (2024-05-19T20:33:36Z) - Affective-NLI: Towards Accurate and Interpretable Personality Recognition in Conversation [30.820334868031537]
会話におけるパーソナリティ認識(PRC)は、テキスト対話コンテンツを通して話者の性格特性を識別することを目的としている。
本稿では,PRCの正確かつ解釈可能なAffective Natural Language Inference (Affective-NLI)を提案する。
論文 参考訳(メタデータ) (2024-04-03T09:14:24Z) - Understanding Public Perceptions of AI Conversational Agents: A
Cross-Cultural Analysis [22.93365830074122]
会話エージェント(CA)は日々の生活に統合され、ソーシャルメディアで重要な議論が巻き起こった。
本研究では,CAを取り巻く約100万のソーシャルメディア議論を計算手法を用いて分析した。
また,中国の参加者は,CAを温かくて有能であると見なす傾向がみられた。
論文 参考訳(メタデータ) (2024-02-25T09:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。