論文の概要: Perceptions of Discriminatory Decisions of Artificial Intelligence: Unpacking the Role of Individual Characteristics
- arxiv url: http://arxiv.org/abs/2410.13250v1
- Date: Thu, 17 Oct 2024 06:18:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:22:17.091764
- Title: Perceptions of Discriminatory Decisions of Artificial Intelligence: Unpacking the Role of Individual Characteristics
- Title(参考訳): 人工知能の差別的決定の知覚:個性の役割を解き放つ
- Authors: Soojong Kim,
- Abstract要約: 個人差(デジタル自己効力性、技術的知識、平等への信念、政治的イデオロギー)は、AIの成果に対する認識と関連している。
デジタル自己効力と技術的知識は、AIに対する態度と肯定的に関連している。
リベラルイデオロギーは、結果信頼、より否定的な感情、より大きな懐疑主義と負の関連がある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study investigates how personal differences (digital self-efficacy, technical knowledge, belief in equality, political ideology) and demographic factors (age, education, and income) are associated with perceptions of artificial intelligence (AI) outcomes exhibiting gender and racial bias and with general attitudes towards AI. Analyses of a large-scale experiment dataset (N = 1,206) indicate that digital self-efficacy and technical knowledge are positively associated with attitudes toward AI, while liberal ideologies are negatively associated with outcome trust, higher negative emotion, and greater skepticism. Furthermore, age and income are closely connected to cognitive gaps in understanding discriminatory AI outcomes. These findings highlight the importance of promoting digital literacy skills and enhancing digital self-efficacy to maintain trust in AI and beliefs in AI usefulness and safety. The findings also suggest that the disparities in understanding problematic AI outcomes may be aligned with economic inequalities and generational gaps in society. Overall, this study sheds light on the socio-technological system in which complex interactions occur between social hierarchies, divisions, and machines that reflect and exacerbate the disparities.
- Abstract(参考訳): 本研究では、個人的差異(デジタル自己効力性、技術知識、平等に対する信念、政治的イデオロギー)と人口統計要因(年齢、教育、収入)が、ジェンダーや人種的偏見を示す人工知能(AI)の結果と、AIに対する一般的な態度とどのように関連しているかを検討する。
大規模な実験データセット(N = 1,206)の分析は、デジタル自己効力性と技術的知識がAIに対する態度に肯定的に関連していることを示している。
さらに、年齢と収入は差別的AIの結果を理解する際の認知的ギャップと密接に関連している。
これらの知見は、デジタルリテラシースキルの推進と、AIへの信頼とAIの有用性と安全性に対する信念を維持するためのデジタル自己効力を高めることの重要性を強調している。
この結果は、問題となるAIの成果を理解する上での格差が、社会の経済的不平等と世代間格差と一致している可能性を示唆している。
本研究は, 社会階層, 分裂, マシン間の複雑な相互作用が, 格差を反映し, 悪化させる社会技術的システムに光を当てるものである。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - "My Kind of Woman": Analysing Gender Stereotypes in AI through The Averageness Theory and EU Law [0.0]
本研究は,社会的ステレオタイプとアルゴリズム決定の相互作用に光を当てて,性別分類システムについて考察する。
認知心理学とフェミニスト法理論を取り入れることで、AIトレーニングに使用されるデータがジェンダーの多様性と公平性をいかに促進するかを検討する。
論文 参考訳(メタデータ) (2024-06-27T20:03:27Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Analyzing Character and Consciousness in AI-Generated Social Content: A
Case Study of Chirper, the AI Social Network [0.0]
この研究はAIの振る舞いを包括的に調査し、多様な設定がチャーパーの反応に与える影響を分析している。
一連の認知テストを通じて、この研究はチャーパーズの自己認識とパターン認識の能力を評価する。
この研究の興味深い側面は、チャーパーのハンドルやパーソナリティのタイプがパフォーマンスに与える影響を探ることである。
論文 参考訳(メタデータ) (2023-08-30T15:40:18Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。