論文の概要: Attributions toward Artificial Agents in a modified Moral Turing Test
- arxiv url: http://arxiv.org/abs/2406.11854v1
- Date: Wed, 3 Apr 2024 13:00:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 07:40:34.607607
- Title: Attributions toward Artificial Agents in a modified Moral Turing Test
- Title(参考訳): 改良モルタルチューリング試験における人工エージェントの寄与
- Authors: Eyal Aharoni, Sharlene Fernandes, Daniel J. Brady, Caelan Alexander, Michael Criner, Kara Queen, Javier Rando, Eddy Nahmias, Victor Crespo,
- Abstract要約: 我々は、一般的な高度なAI言語モデルであるGPT-4と実際の人間の道徳的評価を区別するよう、人々に求めている。
299人の米国成人の代表的サンプルは、AIの道徳的推論を、ほぼすべての次元において、人間よりも品質が優れていると評価した。
言語モデルの出現は、人間よりも質が高いと認識される道徳的反応を生み出すことができるようになり、人々がAIから潜在的に有害な道徳的ガイダンスを受け入れる可能性があるという懸念が高まる。
- 参考スコア(独自算出の注目度): 0.6284264304179837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in artificial intelligence (AI) raise important questions about whether people view moral evaluations by AI systems similarly to human-generated moral evaluations. We conducted a modified Moral Turing Test (m-MTT), inspired by Allen and colleagues' (2000) proposal, by asking people to distinguish real human moral evaluations from those made by a popular advanced AI language model: GPT-4. A representative sample of 299 U.S. adults first rated the quality of moral evaluations when blinded to their source. Remarkably, they rated the AI's moral reasoning as superior in quality to humans' along almost all dimensions, including virtuousness, intelligence, and trustworthiness, consistent with passing what Allen and colleagues call the comparative MTT. Next, when tasked with identifying the source of each evaluation (human or computer), people performed significantly above chance levels. Although the AI did not pass this test, this was not because of its inferior moral reasoning but, potentially, its perceived superiority, among other possible explanations. The emergence of language models capable of producing moral responses perceived as superior in quality to humans' raises concerns that people may uncritically accept potentially harmful moral guidance from AI. This possibility highlights the need for safeguards around generative language models in matters of morality.
- Abstract(参考訳): 人工知能(AI)の進歩は、人間が生成した道徳的評価と同様のAIシステムによる道徳的評価を見るかどうかという重要な疑問を提起する。
我々は,アレンと同僚の2000年の提案に触発された改良されたモラルチューリングテスト(m-MTT)を行い,一般的なAI言語モデルであるGPT-4と実際の人間の道徳的評価を区別するよう依頼した。
299人の米国成人の代表的サンプルは、まずその情報源に目が見えないときに道徳的評価の質を評価した。
注目すべきは、AIの道徳的推論は、アレンと同僚が比較MTTと呼ぶものを追い越すことと一致して、厳格さ、知性、信頼性など、ほぼすべての側面において、人間よりも品質が優れていると評価したことである。
次に、評価対象のソース(人間またはコンピュータ)を識別するタスクを行うと、人々は確率レベルよりもかなり高いパフォーマンスをしました。
AIはこの試験に合格しなかったが、それはその劣悪な道徳的理由によるものではなく、潜在的には、その優越性(英語版)、そして他の可能な説明(英語版)が原因であった。
言語モデルの出現は、人間よりも質が高いと認識される道徳的反応を生み出すことができるようになり、人々がAIから潜在的に有害な道徳的ガイダンスを受け入れる可能性があるという懸念が高まる。
この可能性は、道徳的問題における生成言語モデルに関する保護の必要性を強調している。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Can Artificial Intelligence Embody Moral Values? [0.0]
中立論では テクノロジーは価値に恵まれない
本稿では,人工知能,特に自律的に目標を追求する決定を下す人工知能が中立論に挑むことを論じる。
我々の中心的な主張は、人工エージェントの根底にある計算モデルが、公正さ、正直さ、害を避けるといった道徳的価値の表現を統合することができるということである。
論文 参考訳(メタデータ) (2024-08-22T09:39:16Z) - Decoding moral judgement from text: a pilot study [0.0]
道徳的判断は、認知的・感情的な次元に関わる複雑な人間の反応である。
受動的脳-コンピュータインタフェースを用いたテキスト刺激による道徳的判断復号の実現可能性について検討する。
論文 参考訳(メタデータ) (2024-05-28T20:31:59Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。