論文の概要: Hiding Behind Machines: When Blame Is Shifted to Artificial Agents
- arxiv url: http://arxiv.org/abs/2101.11465v1
- Date: Wed, 27 Jan 2021 14:50:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 20:10:24.343391
- Title: Hiding Behind Machines: When Blame Is Shifted to Artificial Agents
- Title(参考訳): マシンの背後に隠れている: 責任が人工エージェントに移されるとき
- Authors: Till Feier, Jan Gogoll, Matthias Uhl
- Abstract要約: この記事は、我々の代理として決定するエージェントの責任に焦点を当てます。
エージェントが人的であり、人間ではない場合に、エージェントによる道徳的結果の生成が、体系的に異なる判断を下すかどうかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The transfer of tasks with sometimes far-reaching moral implications to
autonomous systems raises a number of ethical questions. In addition to
fundamental questions about the moral agency of these systems, behavioral
issues arise. This article focuses on the responsibility of agents who decide
on our behalf. We investigate the empirically accessible question of whether
the production of moral outcomes by an agent is systematically judged
differently when the agent is artificial and not human. The results of a
laboratory experiment suggest that decision-makers can actually rid themselves
of guilt more easily by delegating to machines than by delegating to other
people. Our results imply that the availability of artificial agents could
provide stronger incentives for decision makers to delegate morally sensitive
decisions.
- Abstract(参考訳): 自律システムへの道徳的影響が遠く及んだタスクの移管は、多くの倫理的疑問を提起する。
これらのシステムの道徳的エージェンシーに関する根本的な問題に加えて、行動問題が発生する。
この記事は、我々の代理を決めるエージェントの責任に焦点を当てます。
エージェントが人的であり、人間ではない場合、エージェントによる道徳的結果の生成が、体系的に異なる判断を下すかどうかを実証的に検証する。
実験の結果、意思決定者は機械に委譲することで、他人に委譲するよりも、より簡単に罪悪感を排除できることが示唆された。
以上の結果から, 人為的エージェントの活用は, 意思決定者が道徳的に敏感な意思決定を委任する上で, より強力なインセンティブをもたらす可能性が示唆された。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Moral Responsibility for AI Systems [8.919993498343159]
何らかの行動を行うエージェントの結果に対する道徳的責任は、因果的状態とてんかん的状態の両方を巻き込むために一般的に取られる。
本稿では,因果モデルの枠組みにおける両条件の形式的定義について述べる。
論文 参考訳(メタデータ) (2023-10-27T10:37:47Z) - Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards
and Ethical Behavior in the MACHIAVELLI Benchmark [61.43264961005614]
我々は、50万以上のリッチで多様なシナリオを含む134個のChoose-Your-Own-Adventureゲームのベンチマークを開発する。
我々は、エージェントの傾向をパワー・シーキングと評価し、不使用を生じさせ、倫理的違反を犯す。
以上の結果から,エージェントは有能かつ道徳的に行動できることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T17:59:03Z) - Bad, mad, and cooked: Moral responsibility for civilian harms in
human-AI military teams [0.0]
この章では、人文知能(AI)チームによる民間の損害に対する道徳的責任について論じる。
軍事力の増大は、不適切な意思決定環境に配置することで、良いリンゴを「調理」する可能性がある。
この章は、人間-AIチームにおける道徳的責任の条件をマップアウトするための新しいメカニズムを提供する。
論文 参考訳(メタデータ) (2022-10-31T10:18:20Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Causal Analysis of Agent Behavior for AI Safety [16.764915383473326]
人工エージェントの行動を促す因果メカニズムを解明するための方法論を提案する。
6つのユースケースをカバーし、アナリストがエージェントについて尋ねる典型的な質問にそれぞれ対処します。
論文 参考訳(メタデータ) (2021-03-05T20:51:12Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Guilty Artificial Minds [0.0]
私たちは、人間、人工、およびグループエージェントの責任と誤認をどのように非難するかを調べます。
集団エージェントは、人間エージェント(責任の概念と誤りが生み出された人)と人工エージェント(質問が未解決のままである人)の間に明確な中間地点を提供するように思われる
論文 参考訳(メタデータ) (2021-01-24T21:37:35Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。