論文の概要: Blaming Humans and Machines: What Shapes People's Reactions to
Algorithmic Harm
- arxiv url: http://arxiv.org/abs/2304.02176v1
- Date: Wed, 5 Apr 2023 00:50:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 13:58:22.110195
- Title: Blaming Humans and Machines: What Shapes People's Reactions to
Algorithmic Harm
- Title(参考訳): 人間と機械を責める:アルゴリズムのハームに対する人々の反応を形作る
- Authors: Gabriel Lima, Nina Grgi\'c-Hla\v{c}a, Meeyoung Cha
- Abstract要約: 機械,デザイナー,ユーザに対する人々の反応態度に,いくつかの要因がどのような影響を及ぼすかを検討する。
AIシステムが説明可能なのかは、彼ら、開発者、ユーザに対する非難に影響を与えなかった。
我々は、社会と道徳の領域にAIシステムを含めることに関する将来の決定が、AIによる害に対する平民の反応をいかに形作るかなど、その意味について論じる。
- 参考スコア(独自算出の注目度): 11.960178399478721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) systems can cause harm to people. This research
examines how individuals react to such harm through the lens of blame. Building
upon research suggesting that people blame AI systems, we investigated how
several factors influence people's reactive attitudes towards machines,
designers, and users. The results of three studies (N = 1,153) indicate
differences in how blame is attributed to these actors. Whether AI systems were
explainable did not impact blame directed at them, their developers, and their
users. Considerations about fairness and harmfulness increased blame towards
designers and users but had little to no effect on judgments of AI systems.
Instead, what determined people's reactive attitudes towards machines was
whether people thought blaming them would be a suitable response to algorithmic
harm. We discuss implications, such as how future decisions about including AI
systems in the social and moral spheres will shape laypeople's reactions to
AI-caused harm.
- Abstract(参考訳): 人工知能(AI)システムは人を傷つける可能性がある。
本研究は,責任レンズを通して個人がこのような害にどう反応するかを検討する。
AIシステムを非難する研究に基づいて、機械、デザイナー、ユーザに対する人々の反応態度にいくつかの要因がどう影響するかを調査した。
3つの研究(N = 1,153)の結果は、これらのアクターによる非難の仕方の違いを示している。
AIシステムが説明可能なのかは、彼ら、開発者、ユーザに対する非難に影響を与えなかった。
公正性と有害性に関する考察は、デザイナやユーザに対する非難を高めたが、AIシステムの判断にはほとんど影響を与えなかった。
その代わり、機械に対する人々の反応的な態度は、人々が機械を非難することがアルゴリズムの害に対する適切な反応であると考えたかどうかだった。
我々は、社会と道徳の領域にAIシステムを含めることに関する将来の決定が、AIによる害に対する平民の反応をいかに形成するかなど、意味を議論する。
関連論文リスト
- Mindful Explanations: Prevalence and Impact of Mind Attribution in XAI
Research [10.705827568946606]
我々はセマンティック・スカラー・オープン・リサーチ・コーポレーション(S2ORC)による3,533個の説明可能なAI(XAI)研究論文を分析した。
我々は、比喩的(例えば「学習する」または「予測する」)、意識(例えば「考える」)、そして(3)エージェンシーの3つの支配的な精神属性を識別する。
その結果、マインドアトリビュートした説明を受けた参加者は、AIシステムが引き起こした損害を認識できる確率が高いことがわかった。
AI専門家の関与を考慮すると、非貢献者に対するAI責任の格付けが低下する
論文 参考訳(メタデータ) (2023-12-19T12:49:32Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Playing the Blame Game with Robots [0.0]
私たちは、人々が無謀な文脈でAIシステムに道徳的責任を負うことを喜んでいることに気付きました。
AIシステムの計算技術が高度になればなるほど、非難は人間のユーザからAIシステムへとシフトする。
論文 参考訳(メタデータ) (2021-02-08T20:53:42Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。