論文の概要: Chatbots as social companions: How people perceive consciousness, human likeness, and social health benefits in machines
- arxiv url: http://arxiv.org/abs/2311.10599v4
- Date: Wed, 3 Apr 2024 19:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 19:53:21.786370
- Title: Chatbots as social companions: How people perceive consciousness, human likeness, and social health benefits in machines
- Title(参考訳): ソーシャル・コンパニオンとしてのチャットボット : 機械の意識、人間の類似性、社会的健康的利益をどう知覚するか
- Authors: Rose E. Guingrich, Michael S. A. Graziano,
- Abstract要約: チャットボットを定期的に利用している人と、それを使用していない人について検討した。
期待とは対照的に、コンパニオンユーザーはこれらの関係が社会的健康に有益であることを示した。
相手のチャットボットを、より意識的で人間らしく認識することは、より肯定的な意見と、より顕著な社会的健康上の利益と相関している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) becomes more widespread, one question that arises is how human-AI interaction might impact human-human interaction. Chatbots, for example, are increasingly used as social companions, and while much is speculated, little is known empirically about how their use impacts human relationships. A common hypothesis is that relationships with companion chatbots are detrimental to social health by harming or replacing human interaction, but this hypothesis may be too simplistic, especially considering the social needs of users and the health of their preexisting human relationships. To understand how relationships with companion chatbots impact social health, we studied people who regularly used companion chatbots and people who did not use them. Contrary to expectations, companion chatbot users indicated that these relationships were beneficial to their social health, whereas non-users viewed them as harmful. Another common assumption is that people perceive conscious, humanlike AI as disturbing and threatening. Among both users and non-users, however, we found the opposite: perceiving companion chatbots as more conscious and humanlike correlated with more positive opinions and more pronounced social health benefits. Detailed accounts from users suggested that these humanlike chatbots may aid social health by supplying reliable and safe interactions, without necessarily harming human relationships, but this may depend on users' preexisting social needs and how they perceive both human likeness and mind in the chatbot.
- Abstract(参考訳): 人工知能(AI)が普及するにつれ、人間とAIの相互作用が人間とAIの相互作用にどのように影響するかという疑問が浮かび上がってくる。
例えばチャットボットは、社会的なコンパニオンとして使われることが多く、多くの推測がなされているが、彼らの使用が人間関係にどのように影響するかは実証的にはほとんど知られていない。
共通の仮説は、チャットボットとの関係は、人間の相互作用を傷つけたり、置き換えたりすることで、社会的健康に有害である、というものであるが、この仮説は、ユーザーのニーズと既存の人間関係の健康を考えると、単純すぎるかもしれない。
共用チャットボットとの関係が社会的健康に与える影響を理解するために,共用チャットボットを定期的に使用した人々と、それを使用していない人々について検討した。
予想に反して、チャットボットのユーザーはこれらの関係が社会的健康に有益であることを示した。
もう一つの一般的な仮定は、人は意識的、人間らしいAIを乱暴で脅かすものとして知覚する、というものである。
しかし、ユーザーと非ユーザーの間では、より意識的で人間的に近いチャットボットを、より肯定的な意見とより顕著な社会的健康上の利益に関連付けていると認識している。
ユーザーからの詳細な説明によると、これらの人間のようなチャットボットは、人間関係を損なうことなく、信頼性が高く安全なインタラクションを提供することで、社会的健康を助ける可能性があるが、これは、ユーザの既存の社会的ニーズと、チャットボットにおける人間の類似性と心の両方をどう知覚するかに依存する可能性がある。
関連論文リスト
- The Illusion of Empathy: How AI Chatbots Shape Conversation Perception [10.061399479158903]
GPTベースのチャットボットは、人間の会話相手よりも共感的でないと認識された。
GPT-4oアノテーションからの共感評価はユーザの評価と一致し、低い共感の知覚を補強する。
人間と人間の会話を訓練した共感モデルでは共感言語に有意な差は認められなかった。
論文 参考訳(メタデータ) (2024-11-19T21:47:08Z) - Evaluating Chatbots to Promote Users' Trust -- Practices and Open
Problems [11.427175278545517]
本稿では,チャットボットのテスト実践について概説する。
ギャップをユーザ信頼の追求におけるオープンな問題として認識する。
サービスや製品のパフォーマンス、ユーザの満足度、社会に対する長期的意図しない結果に関する信頼の問題を緩和するための道筋を概説する。
論文 参考訳(メタデータ) (2023-09-09T22:40:30Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - LGBTQ-AI? Exploring Expressions of Gender and Sexual Orientation in
Chatbots [4.511923587827302]
本研究は,テキストベースの会話エージェント5名を対象に,半構造化インタビューを行った。
性別と性同一性に関する6つの共通テーマを同定した。
チャットボットは、人間の体験によって実現される柔軟性の理解が欠如していることから、人間の対話相手とは異なることは明らかである。
論文 参考訳(メタデータ) (2021-06-03T18:47:52Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Artificial intelligence in communication impacts language and social
relationships [11.212791488179757]
我々は、最も普及しているAIアプリケーションのうちの1つ、アルゴリズム的な応答提案(smart response)の社会的結果を研究する。
提案手法は, コミュニケーション効率の向上, 肯定的な感情言語の利用, コミュニケーションパートナーによる肯定的な評価を行う。
しかし、AIの否定的含意に関する一般的な仮定と一致し、アルゴリズム的応答を疑う場合、人々はより否定的に評価される。
論文 参考訳(メタデータ) (2021-02-10T22:05:11Z) - CASS: Towards Building a Social-Support Chatbot for Online Health
Community [67.45813419121603]
CASSアーキテクチャは高度なニューラルネットワークアルゴリズムに基づいている。
ユーザーからの新たな入力を処理し、さまざまなレスポンスを生成することができる。
フォローアップフィールド実験により、CASSは感情的支援を求める個々のメンバーを支援するのに有用であることが証明された。
論文 参考訳(メタデータ) (2021-01-04T05:52:03Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - "Love is as Complex as Math": Metaphor Generation System for Social
Chatbot [13.128146708018438]
ソーシャルチャットボットの比喩として,人間による一般的な修辞装置の使用について検討する。
本研究はまず,話題認識と新しい図形文を生成するメタファ生成フレームワークを設計する。
人間のアノテーションは生成されたメタファーの新規性と適切性を検証する。
論文 参考訳(メタデータ) (2020-01-03T05:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。