論文の概要: Will you donate money to a chatbot? The effect of chatbot anthropomorphic features and persuasion strategies on willingness to donate
- arxiv url: http://arxiv.org/abs/2412.19976v1
- Date: Sat, 28 Dec 2024 02:17:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:07:35.857800
- Title: Will you donate money to a chatbot? The effect of chatbot anthropomorphic features and persuasion strategies on willingness to donate
- Title(参考訳): チャットボットにお金を寄付するだろうか。チャットボットの人為的特徴と説得戦略が寄付意欲に及ぼす影響
- Authors: Ekaterina Novozhilova, Jiacheng Huang, Le He, Ziling Li, James Cummings,
- Abstract要約: パーソナライズ戦略とパーソナライズ戦略がユーザの認識と寄付可能性に与える影響について検討する。
その結果, 人格化されたチャットボットとの相互作用は, 人類同型感を誘発するが, 寄付意欲が増すわけではないことが示唆された。
実際、一般的に使われている人為的特徴(名前や物語など)は、寄付コンテキストにおけるAIエージェントに対する否定的な態度につながった。
- 参考スコア(独自算出の注目度): 4.431473323414383
- License:
- Abstract: This work investigates the causal mechanism behind the effect of chatbot personification and persuasion strategies on users' perceptions and donation likelihood. In a 2 (personified vs. non-personified chatbot) x 2 (emotional vs. logical persuasion strategy) between-subjects experiment (N=76), participants engaged with a chatbot that represented a non-profit charitable organization. The results suggest that interaction with a personified chatbot evokes perceived anthropomorphism; however, it does not elicit greater willingness to donate. In fact, we found that commonly used anthropomorphic features, like name and narrative, led to negative attitudes toward an AI agent in the donation context. Our results showcase a preference for non-personified chatbots paired with logical persuasion appeal, emphasizing the significance of consistency in chatbot interaction, mirroring human-human engagement. We discuss the importance of moving from exploring the common scenario of a chatbot with machine identity vs. a chatbot with human identity in light of the recent regulations of AI systems.
- Abstract(参考訳): 本研究は,チャットボットのパーソナライズと説得戦略が利用者の認識と寄付可能性に与える影響の背景にある因果メカニズムについて考察する。
2(個人対非個人化チャットボット)x2(感情対論理的説得戦略)と対象物間実験(N=76)では、非営利団体を代表するチャットボットに参加者が関わった。
その結果, 人格化されたチャットボットとの相互作用は人為的同型感を誘発するが, 寄付意欲を増すものではないことが示唆された。
実際、一般的に使われている人為的特徴(名前や物語など)は、寄付コンテキストにおけるAIエージェントに対する否定的な態度につながった。
本研究は,チャットボット同士の相互作用における一貫性の重要性を強調し,人間と人間との関わりを反映した非個人化チャットボットを,論理的説得力と組み合わせて選好するものである。
我々は、AIシステムの最近の規制を考慮して、機械のアイデンティティを持つチャットボットと人間のアイデンティティを持つチャットボットの一般的なシナリオを探索することの重要性について論じる。
関連論文リスト
- The Illusion of Empathy: How AI Chatbots Shape Conversation Perception [10.061399479158903]
GPTベースのチャットボットは、人間の会話相手よりも共感的でないと認識された。
GPT-4oアノテーションからの共感評価はユーザの評価と一致し、低い共感の知覚を補強する。
人間と人間の会話を訓練した共感モデルでは共感言語に有意な差は認められなかった。
論文 参考訳(メタデータ) (2024-11-19T21:47:08Z) - Wild Narratives: Exploring the Effects of Animal Chatbots on Empathy and Positive Attitudes toward Animals [3.64584397341127]
本研究では,動物に対する共感を喚起する目的で,動物のアイデンティティを具現化するチャットボットの設計について検討する。
以上の結果から,このようなチャットボットは共感を著しく向上させ,態度を改善し,動物に対する社会的行動意図を促進することが示唆された。
これらの結果は、保護活動での利用の可能性を強調し、テクノロジーがより情報があり共感的な社会を育むであろう将来性のある道のりを示唆している。
論文 参考訳(メタデータ) (2024-11-09T03:55:53Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - "Love is as Complex as Math": Metaphor Generation System for Social
Chatbot [13.128146708018438]
ソーシャルチャットボットの比喩として,人間による一般的な修辞装置の使用について検討する。
本研究はまず,話題認識と新しい図形文を生成するメタファ生成フレームワークを設計する。
人間のアノテーションは生成されたメタファーの新規性と適切性を検証する。
論文 参考訳(メタデータ) (2020-01-03T05:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。