論文の概要: Playing the Blame Game with Robots
- arxiv url: http://arxiv.org/abs/2102.04527v1
- Date: Mon, 8 Feb 2021 20:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 14:54:47.452335
- Title: Playing the Blame Game with Robots
- Title(参考訳): ロボットでブレムゲームをする
- Authors: Markus Kneer and Michael T. Stuart
- Abstract要約: 私たちは、人々が無謀な文脈でAIシステムに道徳的責任を負うことを喜んでいることに気付きました。
AIシステムの計算技術が高度になればなるほど、非難は人間のユーザからAIシステムへとシフトする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent research shows -- somewhat astonishingly -- that people are willing to
ascribe moral blame to AI-driven systems when they cause harm [1]-[4]. In this
paper, we explore the moral-psychological underpinnings of these findings. Our
hypothesis was that the reason why people ascribe moral blame to AI systems is
that they consider them capable of entertaining inculpating mental states (what
is called mens rea in the law). To explore this hypothesis, we created a
scenario in which an AI system runs a risk of poisoning people by using a novel
type of fertilizer. Manipulating the computational (or quasi-cognitive)
abilities of the AI system in a between-subjects design, we tested whether
people's willingness to ascribe knowledge of a substantial risk of harm (i.e.,
recklessness) and blame to the AI system. Furthermore, we investigated whether
the ascription of recklessness and blame to the AI system would influence the
perceived blameworthiness of the system's user (or owner). In an experiment
with 347 participants, we found (i) that people are willing to ascribe blame to
AI systems in contexts of recklessness, (ii) that blame ascriptions depend
strongly on the willingness to attribute recklessness and (iii) that the
latter, in turn, depends on the perceived "cognitive" capacities of the system.
Furthermore, our results suggest (iv) that the higher the computational
sophistication of the AI system, the more blame is shifted from the human user
to the AI system.
- Abstract(参考訳): 最近の研究では、人々が害[1]-[4]を引き起こすとき、AI駆動システムに対する道徳的責任を負う意思があることが、驚くべきことに示されています。
本稿では,これらの発見の道徳心理学的基礎を考察する。
私たちの仮説は、人々がAIシステムに道徳的な責任を課す理由は、彼らが精神状態(法律でmens reaと呼ばれるもの)を育むことができると考えるからです。
この仮説を探求するため,我々は,新しいタイプの肥料を用いてaiシステムが人を毒殺するリスクを負うシナリオを作成した。
対象間の設計でAIシステムの計算(または準認知)能力を操作し、害の実質的なリスク(すなわち無謀性)とAIシステムの責めの知識を規定する人々の意欲をテストしました。
さらに,aiシステムに対する無謀性と非難の規範が,システム利用者(あるいは所有者)の責任感に影響を与えるかどうかについて検討した。
347人の参加者による実験では、(i)人々が無謀さの文脈でaiシステムに対する非難を訴える意思があること、(ii)非難は無謀さを特徴づける意志に強く依存していること、(iii)後者がシステムの「認知的」な能力に依存することを発見した。
さらに,この結果から(iv),aiシステムの計算高度化が高ければ高いほど,人間ユーザからaiシステムへの非難が高まることが示唆された。
関連論文リスト
- Mindful Explanations: Prevalence and Impact of Mind Attribution in XAI
Research [10.705827568946606]
我々はセマンティック・スカラー・オープン・リサーチ・コーポレーション(S2ORC)による3,533個の説明可能なAI(XAI)研究論文を分析した。
我々は、比喩的(例えば「学習する」または「予測する」)、意識(例えば「考える」)、そして(3)エージェンシーの3つの支配的な精神属性を識別する。
その結果、マインドアトリビュートした説明を受けた参加者は、AIシステムが引き起こした損害を認識できる確率が高いことがわかった。
AI専門家の関与を考慮すると、非貢献者に対するAI責任の格付けが低下する
論文 参考訳(メタデータ) (2023-12-19T12:49:32Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Blaming Humans and Machines: What Shapes People's Reactions to
Algorithmic Harm [11.960178399478721]
機械,デザイナー,ユーザに対する人々の反応態度に,いくつかの要因がどのような影響を及ぼすかを検討する。
AIシステムが説明可能なのかは、彼ら、開発者、ユーザに対する非難に影響を与えなかった。
我々は、社会と道徳の領域にAIシステムを含めることに関する将来の決定が、AIによる害に対する平民の反応をいかに形作るかなど、その意味について論じる。
論文 参考訳(メタデータ) (2023-04-05T00:50:07Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - AI Failures: A Review of Underlying Issues [0.0]
私たちは、概念化、設計、デプロイメントの欠陥を考慮して、AIの失敗に焦点を当てています。
AIシステムは、AIシステムの設計において、欠落とコミッショニングエラーのために失敗する。
AIシステムは、事実上道徳的な判断を下すことが求められる状況で、かなり失敗する可能性が高い。
論文 参考訳(メタデータ) (2020-07-18T15:31:29Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。