論文の概要: Conservative AI and social inequality: Conceptualizing alternatives to
bias through social theory
- arxiv url: http://arxiv.org/abs/2007.08666v1
- Date: Thu, 16 Jul 2020 21:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:52:46.225910
- Title: Conservative AI and social inequality: Conceptualizing alternatives to
bias through social theory
- Title(参考訳): 保守的aiと社会的不平等--社会理論によるバイアスの代替概念化
- Authors: Mike Zajko
- Abstract要約: 社会的な問題は、これらのシステムが人間の生活に与える影響を考えると、もはやAIと機械学習の範囲外にはならない。
保守主義(Conservatism)とは、現状を再現し、強化する支配的な傾向のことであり、急進的なアプローチは、制度的な不平等を乱すために働く。
これは、不平等を永続する構造化された方法を分析するために偏見のあるデータを超えた、AI奨学金の増大組織との関わりを必要とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In response to calls for greater interdisciplinary involvement from the
social sciences and humanities in the development, governance, and study of
artificial intelligence systems, this paper presents one sociologist's view on
the problem of algorithmic bias and the reproduction of societal bias.
Discussions of bias in AI cover much of the same conceptual terrain that
sociologists studying inequality have long understood using more specific terms
and theories. Concerns over reproducing societal bias should be informed by an
understanding of the ways that inequality is continually reproduced in society
-- processes that AI systems are either complicit in, or can be designed to
disrupt and counter. The contrast presented here is between conservative and
radical approaches to AI, with conservatism referring to dominant tendencies
that reproduce and strengthen the status quo, while radical approaches work to
disrupt systemic forms of inequality. The limitations of conservative
approaches to class, gender, and racial bias are discussed as specific
examples, along with the social structures and processes that biases in these
areas are linked to. Societal issues can no longer be out of scope for AI and
machine learning, given the impact of these systems on human lives. This
requires engagement with a growing body of critical AI scholarship that goes
beyond biased data to analyze structured ways of perpetuating inequality,
opening up the possibility for radical alternatives.
- Abstract(参考訳): 本稿では,人工知能システムの開発,ガバナンス,研究において,社会科学と人文科学から学際的な関与を求める声に対して,アルゴリズムバイアスの問題と社会バイアスの再現に関する社会学者の見解を提案する。
aiにおけるバイアスの議論は、不平等を研究する社会学者がより具体的な用語と理論を使って長い間理解してきた概念的地形の多くをカバーしている。
社会バイアスの再現に対する懸念は、社会において不平等が継続的に再現される方法の理解によって知らされるべきである。
ここで提示されるコントラストは、AIに対する保守的なアプローチと急進的なアプローチの中間であり、保守主義は現状を再現し強化する支配的な傾向を指し、急進的なアプローチは不平等の体系的な形態を破壊する。
階級、性別、人種バイアスに対する保守的アプローチの限界は、これらの領域におけるバイアスが関連する社会構造やプロセスとともに、特定の例として議論される。
これらのシステムが人間の生活に与える影響を考えると、社会的な問題はもはやAIと機械学習の範囲外にはならない。
これは、偏見のあるデータを超えて不平等を永続する構造化された方法を分析し、急進的な代替案の可能性を高めるために、成長するAI奨学金の団体との関わりを必要とする。
関連論文リスト
- Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Rethinking Fairness: An Interdisciplinary Survey of Critiques of
Hegemonic ML Fairness Approaches [0.0]
本稿では、機械学習(ML)における現在の公平性向上技術介入の批判を評価し、比較する。
哲学、フェミニスト研究、批判的な人種と民族研究、法学、人類学、科学と技術研究など、様々な非計算分野から派生している。
この記事は、社会における強大な力のダイナミクスと構造的不正を積極的に破壊する未来のMLフェアネス研究の方向性を想像することで締めくくっている。
論文 参考訳(メタデータ) (2022-05-06T14:27:57Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - Data, Power and Bias in Artificial Intelligence [5.124256074746721]
人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
論文 参考訳(メタデータ) (2020-07-28T16:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。