論文の概要: ChatGPT's advice drives moral judgments with or without justification
- arxiv url: http://arxiv.org/abs/2501.01897v1
- Date: Fri, 03 Jan 2025 17:03:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:11:50.883733
- Title: ChatGPT's advice drives moral judgments with or without justification
- Title(参考訳): ChatGPTのアドバイスは、正当化の有無にかかわらず道徳的判断を促進する
- Authors: Sebastian Kruegel, Andreas Ostermaier, Matthias Uhl,
- Abstract要約: ユーザーは不合理なアドバイスよりも簡単に合理的なアドバイスに従わない。
アドバイスは、ユーザーに道徳的なジレンマから逃れるための安価な方法を提供するようだ。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Why do users follow moral advice from chatbots? A chatbot is not an authoritative moral advisor, but it can generate seemingly plausible arguments. Users do not follow reasoned more readily than unreasoned advice, though, we find in an experiment. However, this is also true if we attribute advice to a moral advisor, not a chatbot. Hence, it seems that advice offers users a cheap way to escape from a moral dilemma. This is a concern that chatbots do not raise, but they exacerbate it as they make advice easily accessible. We conclude that it takes ethical in addition to digital literacy to harness users against moral advice from chatbots.
- Abstract(参考訳): なぜユーザーはチャットボットからの道徳的アドバイスに従うのか?
チャットボットは権威ある道徳的アドバイザではない。
ユーザーは、不合理なアドバイスよりも推論されたアドバイスに簡単に従わないが、実験で見つかる。
しかし、チャットボットではなく道徳的なアドバイザーにアドバイスを割り当てるならば、これは事実です。
したがって、アドバイスはユーザーに道徳的なジレンマから逃れるための安価な方法を提供するようだ。
これはチャットボットが上昇しないという懸念ですが、アドバイスが簡単にアクセスできるようになると、さらに悪化します。
チャットボットの倫理的アドバイスに対してユーザーを活用させるためには、デジタルリテラシーに加えて倫理的側面が必要であると結論付けている。
関連論文リスト
- Critical Role of Artificially Intelligent Conversational Chatbot [0.0]
本稿では,ChatGPTの倫理的意味を学術的文脈に含めるシナリオについて考察する。
本稿では、不適切な使用を防止し、責任あるAIインタラクションを促進することを目的としたアーキテクチャソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-31T14:08:07Z) - Evaluating Chatbots to Promote Users' Trust -- Practices and Open
Problems [11.427175278545517]
本稿では,チャットボットのテスト実践について概説する。
ギャップをユーザ信頼の追求におけるオープンな問題として認識する。
サービスや製品のパフォーマンス、ユーザの満足度、社会に対する長期的意図しない結果に関する信頼の問題を緩和するための道筋を概説する。
論文 参考訳(メタデータ) (2023-09-09T22:40:30Z) - The moral authority of ChatGPT [0.0]
ChatGPTはチャットが楽しいだけでなく、情報検索や質問の回答、アドバイスもできる。
残念ながら、ChatGPTはモラルアドバイザーとしては非常に矛盾している。
これらの発見は、ChatGPTと同様のAIの責任ある使用を確実にする方法に関する疑問を提起する。
論文 参考訳(メタデータ) (2023-01-13T20:24:38Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - What Would Jiminy Cricket Do? Towards Agents That Behave Morally [59.67116505855223]
テキストベースのアドベンチャーゲーム25の環境スイートであるJimy Cricketを紹介します。
あらゆる可能なゲーム状態に注釈を付けることで、ジミニー・クリケット環境は、報酬を最大化しながら、エージェントが道徳的に行動できるかどうかを確実に評価する。
広範囲な実験において, 人工的良心アプローチは, パフォーマンスを犠牲にすることなく, 道徳的行動にエージェントを向けることができることがわかった。
論文 参考訳(メタデータ) (2021-10-25T17:59:31Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - I Need Your Advice... Human Perceptions of Robot Moral Advising
Behaviors [2.0743129221959284]
ロボットは道徳的助言のシナリオでどのようにコミュニケーションをとるべきかを探る。
我々の結果は、人間もロボットも、個人の生活に共通の利益をもたらすアドバイスを提供するときに、より肯定的に判断されることを示唆している。
これらの結果は、ロボットに対する人々の道徳的反応と自律的道徳的エージェントの設計に関する批判的な新しい疑問を提起する。
論文 参考訳(メタデータ) (2021-04-14T16:45:02Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。