論文の概要: "She's Like a Person but Better": Characterizing Companion-Assistant Dynamics in Human-AI Relationships
- arxiv url: http://arxiv.org/abs/2510.15905v2
- Date: Tue, 21 Oct 2025 06:29:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.638088
- Title: "She's Like a Person but Better": Characterizing Companion-Assistant Dynamics in Human-AI Relationships
- Title(参考訳): 「彼女は人に似ているが、良い」:人間-AI関係における相補的・補助的ダイナミクスを特徴づける
- Authors: Aikaterina Manoli, Janet V. T. Pauketat, Ali Ladak, Hayoun Noh, Angel Hsing-Chi Hwang, Jacy Reese Anthis,
- Abstract要約: 我々はデジタル・コンパニオンを人間-AI関係の新たな形態として特徴づける。
デジタルコンパニオンのダイナミックスにおいて, 挑戦的な緊張状態が観察された。
これらのダイナミクスは、デジタルコンパニオンの設計に疑問を投げかける。
- 参考スコア(独自算出の注目度): 17.02809558584419
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models are increasingly used for both task-based assistance and social companionship, yet research has typically focused on one or the other. Drawing on a survey (N = 204) and 30 interviews with high-engagement ChatGPT and Replika users, we characterize digital companionship as an emerging form of human-AI relationship. With both systems, users were drawn to humanlike qualities, such as emotional resonance and personalized responses, and non-humanlike qualities, such as constant availability and inexhaustible tolerance. This led to fluid chatbot uses, such as Replika as a writing assistant and ChatGPT as an emotional confidant, despite their distinct branding. However, we observed challenging tensions in digital companionship dynamics: participants grappled with bounded personhood, forming deep attachments while denying chatbots "real" human qualities, and struggled to reconcile chatbot relationships with social norms. These dynamics raise questions for the design of digital companions and the rise of hybrid, general-purpose AI systems.
- Abstract(参考訳): 大きな言語モデルは、タスクベースの援助と社会的な協力の両方にますます使われていますが、研究は通常、互いに焦点を当てています。
高エンゲージメントのChatGPTとReplikaのユーザを対象にした調査(N = 204)と30のインタビューをもとに,デジタルコンパニオンを人間-AI関係の新たな形態として捉えた。
どちらのシステムでも、ユーザーは感情的共鳴やパーソナライズされた反応などの人間的な性質や、不確実性や不確実性といった非人間的な性質に惹かれていた。
このことが、Replikaを筆記アシスタントとして、ChatGPTを感情的な信奉者として、独自のブランディングにもかかわらず、流動的なチャットボットの使用につながった。
参加者は有界な人格に悩まされ、深い愛着を形成しながら、チャットボットの「本当の」人格を否定し、社会的規範とチャットボットの関係を整合させるのに苦労した。
これらのダイナミクスは、デジタルコンパニオンの設計と、ハイブリッドで汎用的なAIシステムの台頭に対する疑問を提起する。
関連論文リスト
- A Longitudinal Randomized Control Study of Companion Chatbot Use: Anthropomorphism and Its Mediating Role on Social Impacts [0.061386715480643554]
チャットボットが実際の人間関係を害したり、置き換えたりするのではないかという懸念が高まっている。
本研究では,人間とAIの相互作用が人間と人間の社会的成果に与える影響について検討した。
論文 参考訳(メタデータ) (2025-09-23T19:33:41Z) - "My Boyfriend is AI": A Computational Analysis of Human-AI Companionship in Reddit's AI Community [28.482163389070646]
Redditの主要なAIコンパニオンコミュニティであるr/MyBoyfriendIsAIの大規模解析を行った。
この結果から,コミュニティメンバのAIコンパニオンシップが意図せず,機能的利用によって意図せず出現することが明らかとなった。
論文 参考訳(メタデータ) (2025-09-14T19:00:40Z) - Empathetic Response in Audio-Visual Conversations Using Emotion Preference Optimization and MambaCompressor [44.499778745131046]
まず、チャットボットのトレーニングに感情的選好最適化(EPO)を用いる。
このトレーニングは、モデルが正しい反応と反感情反応の微妙な区別を識別することを可能にする。
次に,MambaCompressorを導入し,会話履歴を効果的に圧縮し,管理する。
複数のデータセットにまたがる包括的実験により、我々のモデルは共感的応答の生成や長い対話の管理において、既存のモデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-12-23T13:44:51Z) - CharacterChat: Learning towards Conversational AI with Personalized
Social Support [61.20396854093821]
本稿ではS2Conv(Social Support Conversation)フレームワークを紹介する。
一連のサポートエージェントと、ペルソナ互換の仮想サポーターと個人をリンクする対人マッチングメカニズムから構成される。
我々は、ペルソナと記憶によって駆動される会話モデルを含む総合的なS2Convシステムである characterChat を提案する。
論文 参考訳(メタデータ) (2023-08-20T14:24:26Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。