論文の概要: Artificial Intelligence and Structural Injustice: Foundations for
Equity, Values, and Responsibility
- arxiv url: http://arxiv.org/abs/2205.02389v1
- Date: Thu, 5 May 2022 01:21:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:42:00.267414
- Title: Artificial Intelligence and Structural Injustice: Foundations for
Equity, Values, and Responsibility
- Title(参考訳): 人工知能と構造的不正: 等価性、価値、責任の基礎
- Authors: Johannes Himmelreich and D\'esir\'ee Lim
- Abstract要約: この章では、AIのガバナンスに対する構造上の不正なアプローチを論じている。
分析的構成要素は、社会科学でよく知られる構造的説明から成り立っている。
評価要素は正義の理論である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This chapter argues for a structural injustice approach to the governance of
AI. Structural injustice has an analytical and an evaluative component. The
analytical component consists of structural explanations that are well-known in
the social sciences. The evaluative component is a theory of justice.
Structural injustice is a powerful conceptual tool that allows researchers and
practitioners to identify, articulate, and perhaps even anticipate, AI biases.
The chapter begins with an example of racial bias in AI that arises from
structural injustice. The chapter then presents the concept of structural
injustice as introduced by the philosopher Iris Marion Young. The chapter
moreover argues that structural injustice is well suited as an approach to the
governance of AI and compares this approach to alternative approaches that
start from analyses of harms and benefits or from value statements. The chapter
suggests that structural injustice provides methodological and normative
foundations for the values and concerns of Diversity, Equity, and Inclusion.
The chapter closes with an outlook onto the idea of structure and on
responsibility. The idea of a structure is central to justice. An open
theoretical research question is to what extent AI is itself part of the
structure of society. Finally, the practice of responsibility is central to
structural injustice. Even if they cannot be held responsible for the existence
of structural injustice, every individual and every organization has some
responsibility to address structural injustice going forward.
- Abstract(参考訳): 本章では、aiのガバナンスに対する構造的不正アプローチについて論じる。
構造的不正は分析的かつ評価的成分を有する。
分析的構成要素は、社会科学でよく知られる構造的説明から成り立っている。
評価的要素は正義の理論である。
構造的不正は強力な概念的ツールであり、研究者や実践者がAIバイアスを識別し、明瞭にし、そしておそらく予測できる。
章は、構造的不正から生じるaiにおける人種バイアスの例から始まります。
この章は、哲学者イリス・マリオン・ヤングが導入した構造的不正の概念を提示する。
さらに章では、構造的不正はaiのガバナンスのアプローチとして適しており、このアプローチを、害や利益の分析や価値ステートメントから始まった別のアプローチと比較している。
この章は、構造的不正が多様性、平等、包摂性の価値と関心に対する方法論的および規範的基盤を提供することを示唆している。
章は構造の概念と責任に関する展望と共に締めくくっている。
構造という概念は正義の中心である。
オープンな理論的研究の疑問は、AIが社会の構造にどの程度含まれているかである。
最後に、責任の実践は構造的不正の中心である。
構造的不正の存在に責任を負えないとしても、すべての個人と組織は、将来的な構造的不正に対処する責任を負う。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards the Socio-Algorithmic Construction of Fairness: The Case of Automatic Price-Surging in Ride-Hailing [0.0]
ブルックリン・メトロポリタン・シューティングの5倍の価格上昇の後に発生した公衆の談話を分析した。
この結果から, 言論に明記されていないアルゴリズムが, 公平性評価や概念構築に強く影響していることが示唆された。
フェアネスの概念を構築するプロセスはもはや社会的ではなく、社会的なアルゴリズム的なプロセスになっている、と我々は主張する。
論文 参考訳(メタデータ) (2024-08-08T09:11:12Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Does Explainable AI Have Moral Value? [0.0]
説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念を基盤とした統一的倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2023-11-05T15:59:27Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Toward a Theory of Justice for Artificial Intelligence [2.28438857884398]
社会の基本構造は、社会技術システムの複合体として理解されるべきである。
結果として、平等主義的な正義の規範は、これらの文脈に展開されるときにその技術に適用される。
論文 参考訳(メタデータ) (2021-10-27T13:23:38Z) - Fairness Deconstructed: A Sociotechnical View of 'Fair' Algorithms in
Criminal Justice [0.0]
機械学習の研究者たちはフェアネスの手法を開発しており、その多くは保護された属性をまたいだ経験的メトリクスの等化に依存している。
公正なMLの多くは、基礎となる犯罪データに対する公平性の問題を考慮していない、と私は主張する。
電力不均衡を緩和するAIを構築する代わりに、構造的辺縁化の根本原因を理解するためにデータサイエンスを使用できるかどうかを尋ねる。
論文 参考訳(メタデータ) (2021-06-25T06:52:49Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。