論文の概要: A Longitudinal Randomized Control Study of Companion Chatbot Use: Anthropomorphism and Its Mediating Role on Social Impacts
- arxiv url: http://arxiv.org/abs/2509.19515v2
- Date: Fri, 26 Sep 2025 12:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 14:23:57.767651
- Title: A Longitudinal Randomized Control Study of Companion Chatbot Use: Anthropomorphism and Its Mediating Role on Social Impacts
- Title(参考訳): コンパニオン・チャットボット使用の経時的ランダム化制御に関する研究 : 人為的多形と社会的影響における媒介的役割
- Authors: Rose E. Guingrich, Michael S. A. Graziano,
- Abstract要約: 社会人工知能(AI)エージェントとの関係が高まりつつある。
人々は友人関係、メンターシップ、そしてReplikaのようなチャットボットとのロマンチックなパートナーシップを報告します。
人間とAIの相互作用が人間とAIの相互作用にどう影響するかは、人々の社会的要求状態とAIエージェントの人為的類型が関与する可能性がある。
- 参考スコア(独自算出の注目度): 0.061386715480643554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Relationships with social artificial intelligence (AI) agents are on the rise. People report forming friendships, mentorships, and romantic partnerships with chatbots such as Replika, a type of social AI agent that is designed specifically for companionship. Concerns that companion chatbot relationships may harm or replace human ones have been raised, but whether and how these social consequences occur remains unclear. Prior research suggests that people's states of social need and their anthropomorphism of the AI agent may play a role in how human-AI interaction impacts human-human interaction. In this longitudinal study (N = 183), participants were randomly assigned to converse with a companion chatbot over text or to play text-based word games for 10 minutes a day for 21 consecutive days. During these 21 days, participants also completed four surveys and two audio-recorded interviews. We found that people's social health and relationships were not significantly impacted by interacting with a companion chatbot across 21 days compared to the control group. However, people who had a higher desire to socially connect anthropomorphized the chatbot more. Those who anthropomorphized the chatbot more indicated that the human-chatbot interaction had greater impacts on their social interactions and relationships with family and friends. A mediation analysis suggested that the impact of human-AI interaction on human-human social outcomes was mediated by the extent to which people anthropomorphized the AI agent, which itself was related to the desire to socially connect.
- Abstract(参考訳): 社会人工知能(AI)エージェントとの関係が高まりつつある。
人々は友情、メンターシップ、チャットボットとのロマンチックなパートナーシップを報告します。
チャットボットの関係が人間に害を与えたり、置き換えたりするのではないかという懸念は提起されているが、これらの社会的結果がどう起こるかは、まだ不明である。
先行研究は、人間の社会的ニーズの状態とAIエージェントの人為的同型が、人間とAIの相互作用が人間と人間の相互作用にどのように影響するかに影響を及ぼす可能性を示唆している。
この縦断的研究(N=183)では、参加者はテキスト上でチャットボットと会話したり、21日間連続して1日10分間テキストベースのワードゲームを行うようにランダムに割り当てられた。
この21日間、参加者は4回の調査と2回の音声録音インタビューも完了した。
その結果, コントロールグループと比較して, 21日間のチャットボットとの対話によって, 人々の社会的健康と関係性に有意な影響は認められなかった。
しかし、社会的に結びつきたいという欲求が高まると、チャットボットはより人為的になっていった。
チャットボットを人為的に変形させた人々は、人間とチャットボットの相互作用が彼らの社会的相互作用や家族や友人との関係により大きな影響を与えていることをより示していた。
媒介分析では、人間とAIの相互作用が人間と人間の社会的成果に与える影響は、人々がAIエージェントを人為的に形作る程度によって媒介されることが示唆された。
関連論文リスト
- Exploring the Effects of Chatbot Anthropomorphism and Human Empathy on Human Prosocial Behavior Toward Chatbots [9.230015338626659]
チャットボットに対する人間のようなアイデンティティ、感情表現、非言語表現が人間の共感に与える影響について検討する。
また,チャットボットに対する社会的行動に対する人々の解釈についても検討する。
論文 参考訳(メタデータ) (2025-06-25T18:16:14Z) - The Human Robot Social Interaction (HSRI) Dataset: Benchmarking Foundational Models' Social Reasoning [49.32390524168273]
本研究は,実世界のソーシャルインタラクションにおいて,人工知能(AI)エージェントの社会的推論を促進することを目的としている。
我々は、言語モデル(LM)と基礎モデル(FM)の能力をベンチマークするために、大規模な実世界のヒューマンロボット社会インタラクション(HSRI)データセットを導入する。
私たちのデータセットは、400以上の現実世界の人間のソーシャルロボットインタラクションビデオと10K以上のアノテーションで構成され、ロボットの社会的エラー、能力、合理性、修正行動の詳細を記述しています。
論文 参考訳(メタデータ) (2025-04-07T06:27:02Z) - Chatbots as social companions: How people perceive consciousness, human likeness, and social health benefits in machines [0.0]
チャットボットを定期的に利用している人と、それを使用していない人について検討した。
期待とは対照的に、コンパニオンユーザーはこれらの関係が社会的健康に有益であることを示した。
相手のチャットボットを、より意識的で人間らしく認識することは、より肯定的な意見と、より顕著な社会的健康上の利益と相関している。
論文 参考訳(メタデータ) (2023-11-17T15:53:59Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。