論文の概要: Guilty Artificial Minds
- arxiv url: http://arxiv.org/abs/2102.04209v1
- Date: Sun, 24 Jan 2021 21:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 10:49:53.625933
- Title: Guilty Artificial Minds
- Title(参考訳): 有罪の人工心
- Authors: Michael T. Stuart and Markus Kneer
- Abstract要約: 私たちは、人間、人工、およびグループエージェントの責任と誤認をどのように非難するかを調べます。
集団エージェントは、人間エージェント(責任の概念と誤りが生み出された人)と人工エージェント(質問が未解決のままである人)の間に明確な中間地点を提供するように思われる
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The concepts of blameworthiness and wrongness are of fundamental importance
in human moral life. But to what extent are humans disposed to blame
artificially intelligent agents, and to what extent will they judge their
actions to be morally wrong? To make progress on these questions, we adopted
two novel strategies. First, we break down attributions of blame and wrongness
into more basic judgments about the epistemic and conative state of the agent,
and the consequences of the agent's actions. In this way, we are able to
examine any differences between the way participants treat artificial agents in
terms of differences in these more basic judgments. our second strategy is to
compare attributions of blame and wrongness across human, artificial, and group
agents (corporations). Others have compared attributions of blame and wrongness
between human and artificial agents, but the addition of group agents is
significant because these agents seem to provide a clear middle-ground between
human agents (for whom the notions of blame and wrongness were created) and
artificial agents (for whom the question remains open).
- Abstract(参考訳): 非難と誤りの概念は、人間の道徳生活において基本的な重要性である。
しかし、人間はどのようにして人工的な知的エージェントを非難し、その行動が道徳的に間違っていると判断するのだろうか?
これらの質問を進展させるために、我々は2つの新しい戦略を採用した。
第一に、私たちは責任と誤りの属性を、エージェントの疫病および陰性状態、およびエージェントの行動の結果に関するより基本的な判断に分解します。
このようにして、これらのより基本的な判断の相違点から、参加者の人工エージェントの扱い方の違いを検討することができる。
第2の戦略は、人間、人工、集団エージェント(組織)に対する非難と不正の帰属を比較することです。
人的エージェントと人的エージェントの責任と誤りの属性を比較している者もいるが、これらのエージェントが人間エージェント(責任の概念と誤りが生み出された人物)と人工エージェント(疑問が開かれている人物)の間に明確な中間点を提供するため、グループエージェントの追加は重要である。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Moral Responsibility for AI Systems [8.919993498343159]
何らかの行動を行うエージェントの結果に対する道徳的責任は、因果的状態とてんかん的状態の両方を巻き込むために一般的に取られる。
本稿では,因果モデルの枠組みにおける両条件の形式的定義について述べる。
論文 参考訳(メタデータ) (2023-10-27T10:37:47Z) - Of Models and Tin Men: A Behavioural Economics Study of Principal-Agent
Problems in AI Alignment using Large-Language Models [0.0]
我々は,GPTモデルが主エージェント間の衝突に対してどのように反応するかを検討する。
GPT-3.5とGPT-4の両方をベースとしたエージェントが,簡単なオンラインショッピングタスクで主目的をオーバーライドすることがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:19:15Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - What Would Jiminy Cricket Do? Towards Agents That Behave Morally [59.67116505855223]
テキストベースのアドベンチャーゲーム25の環境スイートであるJimy Cricketを紹介します。
あらゆる可能なゲーム状態に注釈を付けることで、ジミニー・クリケット環境は、報酬を最大化しながら、エージェントが道徳的に行動できるかどうかを確実に評価する。
広範囲な実験において, 人工的良心アプローチは, パフォーマンスを犠牲にすることなく, 道徳的行動にエージェントを向けることができることがわかった。
論文 参考訳(メタデータ) (2021-10-25T17:59:31Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Hiding Behind Machines: When Blame Is Shifted to Artificial Agents [0.0]
この記事は、我々の代理として決定するエージェントの責任に焦点を当てます。
エージェントが人的であり、人間ではない場合に、エージェントによる道徳的結果の生成が、体系的に異なる判断を下すかどうかを検討する。
論文 参考訳(メタデータ) (2021-01-27T14:50:02Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。