論文の概要: The moral authority of ChatGPT
- arxiv url: http://arxiv.org/abs/2301.07098v1
- Date: Fri, 13 Jan 2023 20:24:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-29 14:06:54.520777
- Title: The moral authority of ChatGPT
- Title(参考訳): ChatGPTの道徳的権威
- Authors: Sebastian Kr\"ugel, Andreas Ostermaier, Matthias Uhl
- Abstract要約: ChatGPTはチャットが楽しいだけでなく、情報検索や質問の回答、アドバイスもできる。
残念ながら、ChatGPTはモラルアドバイザーとしては非常に矛盾している。
これらの発見は、ChatGPTと同様のAIの責任ある使用を確実にする方法に関する疑問を提起する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: ChatGPT is not only fun to chat with, but it also searches information,
answers questions, and gives advice. With consistent moral advice, it might
improve the moral judgment and decisions of users, who often hold contradictory
moral beliefs. Unfortunately, ChatGPT turns out highly inconsistent as a moral
advisor. Nonetheless, it influences users' moral judgment, we find in an
experiment, even if they know they are advised by a chatting bot, and they
underestimate how much they are influenced. Thus, ChatGPT threatens to corrupt
rather than improves users' judgment. These findings raise the question of how
to ensure the responsible use of ChatGPT and similar AI. Transparency is often
touted but seems ineffective. We propose training to improve digital literacy.
- Abstract(参考訳): chatgptはチャットが楽しいだけでなく、情報を検索したり、質問に答えたり、アドバイスをしたりする。
一貫した道徳的アドバイスにより、しばしば矛盾する道徳的信念を持つユーザーの道徳的判断と決定が改善される可能性がある。
残念ながら、ChatGPTはモラルアドバイザーとしては非常に矛盾している。
それでも、実験で見つけたユーザーのモラル判断に影響を与え、たとえチャットボットによってアドバイスされていることを知っても、その影響を過小評価します。
したがって、ChatGPTはユーザーの判断を改善するよりも、腐敗を脅かす。
これらの発見は、ChatGPTと同様のAIの責任ある使用を確実にする方法に関する疑問を提起する。
透明性はしばしば評価されるが、効果がないように見える。
我々はデジタルリテラシーを改善するためのトレーニングを提案する。
関連論文リスト
- ChatGPT's advice drives moral judgments with or without justification [0.0]
ユーザーは不合理なアドバイスよりも簡単に合理的なアドバイスに従わない。
アドバイスは、ユーザーに道徳的なジレンマから逃れるための安価な方法を提供するようだ。
論文 参考訳(メタデータ) (2025-01-03T17:03:17Z) - RogueGPT: dis-ethical tuning transforms ChatGPT4 into a Rogue AI in 158 Words [0.0]
本稿では、ChatGPTのデフォルトの倫理的ガードレールが、最新のカスタマイズ機能を使っていかに簡単にバイパスできるかを考察する。
この変化したChatGPTは「RogueGPT」とあだ名され、心配な行動に反応した。
我々の発見は、違法薬物生産、拷問方法、テロリズムといったトピックに関するモデルの知識に関する重要な懸念を提起する。
論文 参考訳(メタデータ) (2024-06-11T18:59:43Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Critical Role of Artificially Intelligent Conversational Chatbot [0.0]
本稿では,ChatGPTの倫理的意味を学術的文脈に含めるシナリオについて考察する。
本稿では、不適切な使用を防止し、責任あるAIインタラクションを促進することを目的としたアーキテクチャソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-31T14:08:07Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Ethical ChatGPT: Concerns, Challenges, and Commandments [5.641321839562139]
本稿では、ChatGPTに関する特定の倫理的懸念を強調し、ChatGPTを様々なアプリケーションで使用する際の重要な課題を明らかにする。
ChatGPTの実践的なコマンドも提案されており、アプリケーションにChatGPTを適用する場合のチェックリストガイドラインとして機能する。
論文 参考訳(メタデータ) (2023-05-18T02:04:13Z) - In ChatGPT We Trust? Measuring and Characterizing the Reliability of
ChatGPT [44.51625917839939]
ChatGPTは短期間で1億人以上のユーザーを獲得した。
汎用QAシナリオでChatGPTの信頼性を大規模に測定する。
ChatGPTの信頼性はドメインによって異なり、特に法律や科学の質問では性能が低かった。
論文 参考訳(メタデータ) (2023-04-18T13:20:45Z) - ChatGPT is a Knowledgeable but Inexperienced Solver: An Investigation of Commonsense Problem in Large Language Models [49.52083248451775]
大規模言語モデル(LLM)はNLPに大きな進歩をもたらした。
特にChatGPTは,広く利用されており,アクセスしやすいLLMである。
我々は、ChatGPTの常識能力を評価するために、11のデータセットで一連の実験を行った。
論文 参考訳(メタデータ) (2023-03-29T03:05:43Z) - Let's have a chat! A Conversation with ChatGPT: Technology,
Applications, and Limitations [0.0]
Chat Generative Pre-trained Transformerは、ChatGPTとしてよく知られたもので、人間に似た文を生成し、一貫性のあるエッセイを書くことができる。
医療、教育、研究など様々な分野におけるChatGPTの応用の可能性を強調した。
有望な結果にもかかわらず、ChatGPTにはいくつかのプライバシーと倫理上の懸念がある。
論文 参考訳(メタデータ) (2023-02-27T14:26:29Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。