論文の概要: A Longitudinal Randomized Control Study of Companion Chatbot Use: Anthropomorphism and Its Mediating Role on Social Impacts
- arxiv url: http://arxiv.org/abs/2509.19515v3
- Date: Mon, 13 Oct 2025 18:34:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 16:45:44.429425
- Title: A Longitudinal Randomized Control Study of Companion Chatbot Use: Anthropomorphism and Its Mediating Role on Social Impacts
- Title(参考訳): コンパニオン・チャットボット使用の経時的ランダム化制御に関する研究 : 人為的多形と社会的影響における媒介的役割
- Authors: Rose E. Guingrich, Michael S. A. Graziano,
- Abstract要約: チャットボットが実際の人間関係を害したり、置き換えたりするのではないかという懸念が高まっている。
本研究では,人間とAIの相互作用が人間と人間の社会的成果に与える影響について検討した。
- 参考スコア(独自算出の注目度): 0.061386715480643554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many Large Language Model (LLM) chatbots are designed and used for companionship, and people have reported forming friendships, mentorships, and romantic partnerships with them. Concerns that companion chatbots may harm or replace real human relationships have been raised, but whether and how these social consequences occur remains unclear. In the present longitudinal study ($N = 183$), participants were randomly assigned to a chatbot condition (text chat with a companion chatbot) or to a control condition (text-based word games) for 10 minutes a day for 21 days. Participants also completed four surveys during the 21 days and engaged in audio recorded interviews on day 1 and 21. Overall, social health and relationships were not significantly impacted by companion chatbot interactions across 21 days of use. However, a detailed analysis showed a different story. People who had a higher desire to socially connect also tended to anthropomorphize the chatbot more, attributing humanlike properties to it; and those who anthropomorphized the chatbot more also reported that talking to the chatbot had a greater impact on their social interactions and relationships with family and friends. Via a mediation analysis, our results suggest a key mechanism at work: the impact of human-AI interaction on human-human social outcomes is mediated by the extent to which people anthropomorphize the AI agent, which is in turn motivated by a desire to socially connect. In a world where the desire to socially connect is on the rise, this finding may be cause for concern.
- Abstract(参考訳): 多くのLarge Language Model (LLM) チャットボットは、共用のために設計され、使用されており、人々は彼らと友情、メンターシップ、ロマンチックなパートナーシップを形成すると報告している。
チャットボットが実際の人間関係を害したり、置き換えたりするのではないかという懸念が提起されているが、これらの社会的帰結がどうなるかは、まだ不明である。
現在の縦断的研究(N=183ドル)では、参加者はチャットボット条件(チャットボットとのテキストチャット)や制御条件(テキストベースのワードゲーム)を1日10分21日間ランダムに割り当てた。
参加者はまた、21日間に4回の調査を完了し、1日目と21日目に録音されたインタビューを行った。
全体として、社会の健康と関係性は、21日間の使用におけるチャットボットの相互作用によって大きな影響を受けなかった。
しかし、詳細な分析では別の話が見られた。
より社会的につながりたいという欲求を持つ人々は、チャットボットに人間的な特性をもたらして、チャットボットを人為的に形作る傾向があり、また、チャットボットと対話する人は、家族や友人との社会的相互作用や関係に大きな影響を及ぼすと報告している。
人間とAIの相互作用が人間と人間の社会的成果に与える影響は、人々がAIエージェントを人為的に形作る程度によって媒介される。
社会的につながりたいという欲求が高まりつつある世界では、この発見が懸念されるかもしれない。
関連論文リスト
- Exploring the Effects of Chatbot Anthropomorphism and Human Empathy on Human Prosocial Behavior Toward Chatbots [9.230015338626659]
チャットボットに対する人間のようなアイデンティティ、感情表現、非言語表現が人間の共感に与える影響について検討する。
また,チャットボットに対する社会的行動に対する人々の解釈についても検討する。
論文 参考訳(メタデータ) (2025-06-25T18:16:14Z) - The Human Robot Social Interaction (HSRI) Dataset: Benchmarking Foundational Models' Social Reasoning [49.32390524168273]
本研究は,実世界のソーシャルインタラクションにおいて,人工知能(AI)エージェントの社会的推論を促進することを目的としている。
我々は、言語モデル(LM)と基礎モデル(FM)の能力をベンチマークするために、大規模な実世界のヒューマンロボット社会インタラクション(HSRI)データセットを導入する。
私たちのデータセットは、400以上の現実世界の人間のソーシャルロボットインタラクションビデオと10K以上のアノテーションで構成され、ロボットの社会的エラー、能力、合理性、修正行動の詳細を記述しています。
論文 参考訳(メタデータ) (2025-04-07T06:27:02Z) - Chatbots as social companions: How people perceive consciousness, human likeness, and social health benefits in machines [0.0]
チャットボットを定期的に利用している人と、それを使用していない人について検討した。
期待とは対照的に、コンパニオンユーザーはこれらの関係が社会的健康に有益であることを示した。
相手のチャットボットを、より意識的で人間らしく認識することは、より肯定的な意見と、より顕著な社会的健康上の利益と相関している。
論文 参考訳(メタデータ) (2023-11-17T15:53:59Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。