論文の概要: Blaming Humans and Machines: What Shapes People's Reactions to
Algorithmic Harm
- arxiv url: http://arxiv.org/abs/2304.02176v1
- Date: Wed, 5 Apr 2023 00:50:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 13:58:22.110195
- Title: Blaming Humans and Machines: What Shapes People's Reactions to
Algorithmic Harm
- Title(参考訳): 人間と機械を責める:アルゴリズムのハームに対する人々の反応を形作る
- Authors: Gabriel Lima, Nina Grgi\'c-Hla\v{c}a, Meeyoung Cha
- Abstract要約: 機械,デザイナー,ユーザに対する人々の反応態度に,いくつかの要因がどのような影響を及ぼすかを検討する。
AIシステムが説明可能なのかは、彼ら、開発者、ユーザに対する非難に影響を与えなかった。
我々は、社会と道徳の領域にAIシステムを含めることに関する将来の決定が、AIによる害に対する平民の反応をいかに形作るかなど、その意味について論じる。
- 参考スコア(独自算出の注目度): 11.960178399478721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) systems can cause harm to people. This research
examines how individuals react to such harm through the lens of blame. Building
upon research suggesting that people blame AI systems, we investigated how
several factors influence people's reactive attitudes towards machines,
designers, and users. The results of three studies (N = 1,153) indicate
differences in how blame is attributed to these actors. Whether AI systems were
explainable did not impact blame directed at them, their developers, and their
users. Considerations about fairness and harmfulness increased blame towards
designers and users but had little to no effect on judgments of AI systems.
Instead, what determined people's reactive attitudes towards machines was
whether people thought blaming them would be a suitable response to algorithmic
harm. We discuss implications, such as how future decisions about including AI
systems in the social and moral spheres will shape laypeople's reactions to
AI-caused harm.
- Abstract(参考訳): 人工知能(AI)システムは人を傷つける可能性がある。
本研究は,責任レンズを通して個人がこのような害にどう反応するかを検討する。
AIシステムを非難する研究に基づいて、機械、デザイナー、ユーザに対する人々の反応態度にいくつかの要因がどう影響するかを調査した。
3つの研究(N = 1,153)の結果は、これらのアクターによる非難の仕方の違いを示している。
AIシステムが説明可能なのかは、彼ら、開発者、ユーザに対する非難に影響を与えなかった。
公正性と有害性に関する考察は、デザイナやユーザに対する非難を高めたが、AIシステムの判断にはほとんど影響を与えなかった。
その代わり、機械に対する人々の反応的な態度は、人々が機械を非難することがアルゴリズムの害に対する適切な反応であると考えたかどうかだった。
我々は、社会と道徳の領域にAIシステムを含めることに関する将来の決定が、AIによる害に対する平民の反応をいかに形成するかなど、意味を議論する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Mindful Explanations: Prevalence and Impact of Mind Attribution in XAI
Research [10.705827568946606]
我々はセマンティック・スカラー・オープン・リサーチ・コーポレーション(S2ORC)による3,533個の説明可能なAI(XAI)研究論文を分析した。
我々は、比喩的(例えば「学習する」または「予測する」)、意識(例えば「考える」)、そして(3)エージェンシーの3つの支配的な精神属性を識別する。
その結果、マインドアトリビュートした説明を受けた参加者は、AIシステムが引き起こした損害を認識できる確率が高いことがわかった。
AI専門家の関与を考慮すると、非貢献者に対するAI責任の格付けが低下する
論文 参考訳(メタデータ) (2023-12-19T12:49:32Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Playing the Blame Game with Robots [0.0]
私たちは、人々が無謀な文脈でAIシステムに道徳的責任を負うことを喜んでいることに気付きました。
AIシステムの計算技術が高度になればなるほど、非難は人間のユーザからAIシステムへとシフトする。
論文 参考訳(メタデータ) (2021-02-08T20:53:42Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。