論文の概要: Chatbots as social companions: How people perceive consciousness, human
likeness, and social health benefits in machines
- arxiv url: http://arxiv.org/abs/2311.10599v1
- Date: Fri, 17 Nov 2023 15:53:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-20 14:06:06.779767
- Title: Chatbots as social companions: How people perceive consciousness, human
likeness, and social health benefits in machines
- Title(参考訳): ソーシャル・コンパニオンとしてのチャットボット : 機械の意識、人間の類似性、社会的健康的利益をどう知覚するか
- Authors: Rose Guingrich, Michael S. A. Graziano
- Abstract要約: 一般的な仮説は、人間の相互作用を傷つけたり置き換えたりすることで、仲間のボットは社会的健康に有害である、というものである。
共用ボットが社会の健康に与える影響を理解するために,共用ボットを使用した人々と非使用者を調査した。
しかし、ユーザーと非ユーザーの間では、より意識的で人間的なボットを知覚することは、より肯定的な意見とより良い社会的健康的利益と相関していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) becomes more widespread, one question that
arises is how human-AI interaction might impact human-human interaction.
Chatbots, for example, are increasingly used as social companions, but little
is known about how their use impacts human relationships. A common hypothesis
is that these companion bots are detrimental to social health by harming or
replacing human interaction. To understand how companion bots impact social
health, we studied people who used companion bots and people who did not.
Contrary to expectations, companion bot users indicated that these
relationships were beneficial to their social health, whereas nonusers viewed
them as harmful. Another common assumption is that people perceive conscious,
humanlike AI as disturbing and threatening. Among both users and nonusers,
however, we found the opposite: perceiving companion bots as more conscious and
humanlike correlated with more positive opinions and better social health
benefits. Humanlike bots may aid social health by supplying reliable and safe
interactions, without necessarily harming human relationships.
- Abstract(参考訳): 人工知能(AI)が普及するにつれ、人間とAIの相互作用が人間とAIの相互作用にどのように影響するかという問題が発生する。
例えばチャットボットは、社会的なコンパニオンとしての利用が増えているが、その使用が人間関係に与える影響についてはほとんど分かっていない。
一般的な仮説は、これらの仲間のボットは人間の相互作用を傷つけたり置き換えたりすることで社会の健康に有害であるということである。
共用ボットが社会の健康に与える影響を理解するために,共用ボットを使用した人々と非使用者を調査した。
期待に反して、コンパニオンボットのユーザーは、これらの関係は社会的健康にとって有益であることを示した。
もう一つの一般的な仮定は、人は意識的、人間らしいAIを乱暴で脅かすものとして知覚する。
コンパニオンボットを意識的かつ人間らしく認識することは、よりポジティブな意見とより優れた社会的健康上の利益と相関したのです。
人間のようなボットは、人間関係を傷つけることなく、信頼できる安全な相互作用を提供することで、社会的健康を助けることができる。
関連論文リスト
- The Illusion of Empathy: How AI Chatbots Shape Conversation Perception [10.061399479158903]
GPTベースのチャットボットは、人間の会話相手よりも共感的でないと認識された。
GPT-4oアノテーションからの共感評価はユーザの評価と一致し、低い共感の知覚を補強する。
人間と人間の会話を訓練した共感モデルでは共感言語に有意な差は認められなかった。
論文 参考訳(メタデータ) (2024-11-19T21:47:08Z) - Evaluating Chatbots to Promote Users' Trust -- Practices and Open
Problems [11.427175278545517]
本稿では,チャットボットのテスト実践について概説する。
ギャップをユーザ信頼の追求におけるオープンな問題として認識する。
サービスや製品のパフォーマンス、ユーザの満足度、社会に対する長期的意図しない結果に関する信頼の問題を緩和するための道筋を概説する。
論文 参考訳(メタデータ) (2023-09-09T22:40:30Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - LGBTQ-AI? Exploring Expressions of Gender and Sexual Orientation in
Chatbots [4.511923587827302]
本研究は,テキストベースの会話エージェント5名を対象に,半構造化インタビューを行った。
性別と性同一性に関する6つの共通テーマを同定した。
チャットボットは、人間の体験によって実現される柔軟性の理解が欠如していることから、人間の対話相手とは異なることは明らかである。
論文 参考訳(メタデータ) (2021-06-03T18:47:52Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Artificial intelligence in communication impacts language and social
relationships [11.212791488179757]
我々は、最も普及しているAIアプリケーションのうちの1つ、アルゴリズム的な応答提案(smart response)の社会的結果を研究する。
提案手法は, コミュニケーション効率の向上, 肯定的な感情言語の利用, コミュニケーションパートナーによる肯定的な評価を行う。
しかし、AIの否定的含意に関する一般的な仮定と一致し、アルゴリズム的応答を疑う場合、人々はより否定的に評価される。
論文 参考訳(メタデータ) (2021-02-10T22:05:11Z) - CASS: Towards Building a Social-Support Chatbot for Online Health
Community [67.45813419121603]
CASSアーキテクチャは高度なニューラルネットワークアルゴリズムに基づいている。
ユーザーからの新たな入力を処理し、さまざまなレスポンスを生成することができる。
フォローアップフィールド実験により、CASSは感情的支援を求める個々のメンバーを支援するのに有用であることが証明された。
論文 参考訳(メタデータ) (2021-01-04T05:52:03Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - "Love is as Complex as Math": Metaphor Generation System for Social
Chatbot [13.128146708018438]
ソーシャルチャットボットの比喩として,人間による一般的な修辞装置の使用について検討する。
本研究はまず,話題認識と新しい図形文を生成するメタファ生成フレームワークを設計する。
人間のアノテーションは生成されたメタファーの新規性と適切性を検証する。
論文 参考訳(メタデータ) (2020-01-03T05:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。