論文の概要: Queering the ethics of AI
- arxiv url: http://arxiv.org/abs/2308.13591v1
- Date: Fri, 25 Aug 2023 17:26:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 20:17:20.766462
- Title: Queering the ethics of AI
- Title(参考訳): AIの倫理について
- Authors: Eduard Fosch-Villaronga and Gianclaudio Malgieri
- Abstract要約: この章は、AIが差別を永続させる可能性をめぐる倫理的懸念を強調している。
この章は、しばしば非差別法を支える平等の概念に対する批判的な検証が必要であると主張している。
- 参考スコア(独自算出の注目度): 0.6993026261767287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This book chapter delves into the pressing need to "queer" the ethics of AI
to challenge and re-evaluate the normative suppositions and values that
underlie AI systems. The chapter emphasizes the ethical concerns surrounding
the potential for AI to perpetuate discrimination, including binarism, and
amplify existing inequalities due to the lack of representative datasets and
the affordances and constraints depending on technology readiness. The chapter
argues that a critical examination of the neoliberal conception of equality
that often underpins non-discrimination law is necessary and cannot stress more
the need to create alternative interdisciplinary approaches that consider the
complex and intersecting factors that shape individuals' experiences of
discrimination. By exploring such approaches centering on intersectionality and
vulnerability-informed design, the chapter contends that designers and
developers can create more ethical AI systems that are inclusive, equitable,
and responsive to the needs and experiences of all individuals and communities,
particularly those who are most vulnerable to discrimination and harm.
- Abstract(参考訳): この本章は、AIシステムの根底にある規範的仮定と価値に挑戦し、再評価するために、AIの倫理を「精査する」必要があることを強調している。
この章では、AIがバイナリズムを含む差別を永続し、代表的データセットの欠如と技術の準備の整合性による余裕と制約により、既存の不平等を増幅する可能性に関する倫理的懸念を強調している。
この章は、しばしば非差別法を基盤とする平等の新自由の概念に対する批判的な検証が不可欠であり、個人の差別経験を形作る複雑で交差する要因を考慮に入れた別の学際的アプローチを構築する必要性を強調できないと主張している。
交叉性と脆弱性のない設計を中心とするそのようなアプローチを探求することで、デザイナーと開発者は、すべての個人やコミュニティ、特に差別や危害に最も弱い人々のニーズや経験に包括的で公平な、より倫理的なaiシステムを作ることができる、と章は主張している。
関連論文リスト
- The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Tackling Algorithmic Disability Discrimination in the Hiring Process: An
Ethical, Legal and Technical Analysis [2.294014185517203]
我々は、障害者差別に関連して、AIによる雇用によって引き起こされる懸念と機会について論じる。
私たちはいくつかの出発点を確立し、倫理主義者、議員、支持者、そしてAI実践者のためのロードマップを設計します。
論文 参考訳(メタデータ) (2022-06-13T13:32:37Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。