論文の概要: AI Mimicry and Human Dignity: Chatbot Use as a Violation of Self-Respect
- arxiv url: http://arxiv.org/abs/2503.05723v1
- Date: Mon, 17 Feb 2025 19:02:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 09:47:28.030704
- Title: AI Mimicry and Human Dignity: Chatbot Use as a Violation of Self-Respect
- Title(参考訳): AIミミリーと人間のディグニティ - 自己尊重の違反として使うチャットボット
- Authors: Jan-Willem van der Rijt, Dimitri Coelho Mollo, Bram Vaassen,
- Abstract要約: この方法でチャットボットと対話することは、ユーザの尊厳とは相容れない、と私たちは主張する。
第二の個人的敬意は、第二の個人的権威の相互認識に前提づけられているため、第二の個人的敬意を伝える方法において、チャットボットに向かって行動することが誤認される。
- 参考スコア(独自算出の注目度): 0.04260910081285213
- License:
- Abstract: This paper investigates how human interactions with AI-powered chatbots may offend human dignity. Current chatbots, driven by large language models (LLMs), mimic human linguistic behaviour but lack the moral and rational capacities essential for genuine interpersonal respect. Human beings are prone to anthropomorphise chatbots. Indeed, chatbots appear to be deliberately designed to elicit that response. As a result, human beings' behaviour toward chatbots often resembles behaviours typical of interaction between moral agents. Drawing on a second-personal, relational account of dignity, we argue that interacting with chatbots in this way is incompatible with the dignity of users. We show that, since second-personal respect is premised on reciprocal recognition of second-personal authority, behaving towards chatbots in ways that convey second-personal respect is bound to misfire in morally problematic ways, given the lack of reciprocity. Consequently, such chatbot interactions amount to subtle but significant violations of self-respect: the respect we are dutybound to show for our own dignity. We illustrate this by discussing four actual chatbot use cases (information retrieval, customer service, advising, and companionship), and propound that the increasing societal pressure to engage in such interactions with chatbots poses a hitherto underappreciated threat to human dignity.
- Abstract(参考訳): 本稿では,AIを利用したチャットボットと人間のインタラクションが,人間の尊厳を損なう可能性について検討する。
現在のチャットボットは、大きな言語モデル(LLM)によって駆動され、人間の言語行動を模倣するが、真の対人的敬意に不可欠な道徳的、合理的な能力は欠如している。
人間はチャットボットを人為的に形作る傾向がある。
実際、チャットボットはその応答を引き出すために意図的に設計されているようだ。
結果として、チャットボットに対する人間の行動は、道徳的エージェント間の相互作用に典型的な行動によく似ている。
この方法でチャットボットと対話することは、ユーザの尊厳とは相容れない、と私たちは主張する。
第二の個人的敬意は、第二の個人的権威の相互認識を前提としているため、相互性の欠如を考えると、第二の個人的敬意を伝える方法は道徳的に問題のある方法で誤認されがちである。
その結果、このようなチャットボットの相互作用は、微妙だが重要な自己尊重の違反となる。
実際のチャットボットの4つのユースケース(情報検索、カスタマーサービス、アドバイス、協力)を議論し、このようなチャットボットとの対話に携わる社会的プレッシャーの増加が、人間の尊厳に対する過度な脅威をもたらすことを示唆する。
関連論文リスト
- Will you donate money to a chatbot? The effect of chatbot anthropomorphic features and persuasion strategies on willingness to donate [4.431473323414383]
パーソナライズ戦略とパーソナライズ戦略がユーザの認識と寄付可能性に与える影響について検討する。
その結果, 人格化されたチャットボットとの相互作用は, 人類同型感を誘発するが, 寄付意欲が増すわけではないことが示唆された。
実際、一般的に使われている人為的特徴(名前や物語など)は、寄付コンテキストにおけるAIエージェントに対する否定的な態度につながった。
論文 参考訳(メタデータ) (2024-12-28T02:17:46Z) - The Illusion of Empathy: How AI Chatbots Shape Conversation Perception [10.061399479158903]
GPTベースのチャットボットは人間の会話相手よりも共感的でないと認識された。
以上の結果から,会話の質形成における共感の重要性が示唆された。
論文 参考訳(メタデータ) (2024-11-19T21:47:08Z) - A Turing Test: Are AI Chatbots Behaviorally Similar to Humans? [19.50537882161282]
ChatGPT-4は、ランダムなヒトの被験者と統計的に区別できない個性特性を示す。
彼らの行動は平均的行動と人的行動とは区別されることが多い。
私たちは、彼らが自分の平均とパートナーの支払いを最大化しているかのように振る舞うと見積もっています。
論文 参考訳(メタデータ) (2023-11-19T16:44:09Z) - HandMeThat: Human-Robot Communication in Physical and Social
Environments [73.91355172754717]
HandMeThatは、物理的および社会的環境における命令理解とフォローの総合評価のためのベンチマークである。
HandMeThatには、人間とロボットの対話の1万エピソードが含まれている。
オフラインとオンラインの強化学習アルゴリズムはHandMeThatでは性能が良くないことを示す。
論文 参考訳(メタデータ) (2023-10-05T16:14:46Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。