論文の概要: A Feminist Account of Intersectional Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2508.17944v1
- Date: Mon, 25 Aug 2025 12:09:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.762523
- Title: A Feminist Account of Intersectional Algorithmic Fairness
- Title(参考訳): 間欠的アルゴリズムフェアネスのフェミニスト的考察
- Authors: Marie Mirsch, Laila Wegner, Jonas Strube, Carmen Leicht-Scholten,
- Abstract要約: 我々は、交差フェミニスト理論からの洞察により、グリーンの実体的アルゴリズムフェアネスの概念を拡張した実体的区間的アルゴリズムフェアネスを提案する。
我々は,アルゴリズムシステムの設計,評価,展開を指導するために,ROOF方法論に10のデシラタを導入している。
計算科学と社会科学の視点をブリッジすることで、より公平で包括的で文脈に敏感な交叉アルゴリズムの実践のための実用的なガイダンスを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Intersectionality has profoundly influenced research and political action by revealing how interconnected systems of privilege and oppression influence lived experiences, yet its integration into algorithmic fairness research remains limited. Existing approaches often rely on single-axis or formal subgroup frameworks that risk oversimplifying social realities and neglecting structural inequalities. We propose Substantive Intersectional Algorithmic Fairness, extending Green's (2022) notion of substantive algorithmic fairness with insights from intersectional feminist theory. Building on this foundation, we introduce ten desiderata within the ROOF methodology to guide the design, assessment, and deployment of algorithmic systems in ways that address systemic inequities while mitigating harms to intersectionally marginalized communities. Rather than prescribing fixed operationalizations, these desiderata encourage reflection on assumptions of neutrality, the use of protected attributes, the inclusion of multiply marginalized groups, and enhancing algorithmic systems' potential. Our approach emphasizes that fairness cannot be separated from social context, and that in some cases, principled non-deployment may be necessary. By bridging computational and social science perspectives, we provide actionable guidance for more equitable, inclusive, and context-sensitive intersectional algorithmic practices.
- Abstract(参考訳): インターセクション性は、特権と抑圧の相互接続システムがいかにして経験に影響を与えたかを明らかにすることで、研究と政治行動に大きな影響を与えてきたが、アルゴリズムフェアネス研究への統合は依然として限られている。
既存のアプローチは、社会的現実を単純化し、構造的不平等を無視するリスクを負う単一の軸または形式的なサブグループフレームワークに依存していることが多い。
本稿では, 交差フェミニスト理論からの洞察により, グリーン(2022年)の実体的アルゴリズムフェアネスの概念を拡張した実体的区間的アルゴリズムフェアネスを提案する。
本稿では,この基盤を基盤として,アルゴリズムシステムの設計,評価,展開の指針となる10個のデシラタを導入する。
これらのデシダラタは固定的な操作を規定するのではなく、中立性の仮定、保護された属性の使用、乗法的辺縁化群の導入、アルゴリズムシステムのポテンシャルの強化を奨励する。
我々のアプローチは、公平さは社会的文脈から切り離すことはできないこと、そして場合によっては原則的非デプロイが必要であることを強調している。
計算科学と社会科学の視点をブリッジすることで、より公平で包括的で文脈に敏感な交叉アルゴリズムの実践のための実用的なガイダンスを提供する。
関連論文リスト
- Secondary Bounded Rationality: A Theory of How Algorithms Reproduce Structural Inequality in AI Hiring [0.174048653626208]
論文では、AIシステムは技術的・社会的制約を通じて人間の認知と構造的バイアスを継承し、増幅すると主張している。
アルゴリズムのプロセスが、エリート的信用権の特権化やネットワークのホモフィリーといった歴史的不平等を、明らかに有益な官僚的な結果にどのように変えるかを示す。
我々は、この自己強化不平等を打破するために、対物公正テスト、資本認識監査、規制介入を含む緩和戦略を提案する。
論文 参考訳(メタデータ) (2025-07-12T10:03:20Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - A Sociotechnical View of Algorithmic Fairness [16.184328505946763]
アルゴリズムの公正さは、自動意思決定におけるシステム的差別を緩和する新しい技術として位置づけられている。
公平性は本質的に社会的概念であり、それゆえにアルゴリズム的公正性のための技術は社会技術的レンズを通してアプローチされるべきである、と我々は主張する。
論文 参考訳(メタデータ) (2021-09-27T21:17:16Z) - Impossibility of What? Formal and Substantive Equality in Algorithmic
Fairness [3.42658286826597]
アルゴリズムの公正性に対する支配的な「形式的」アプローチは、平等を追求する枠組みとして不十分である、と私は主張する。
社会階層に反するアルゴリズムフェアネスに対する「実質的」アプローチを提案する。
形式的および実体的アルゴリズム的公正の区別は、各アプローチの「公正の実証可能性」に対する応答によって実証される。
論文 参考訳(メタデータ) (2021-07-09T19:29:57Z) - Impact Remediation: Optimal Interventions to Reduce Inequality [10.806517393212491]
我々は、既存の現実世界の格差に対処するための新しいアルゴリズムフレームワークを開発する。
本フレームワークの目的は、現実世界の格差を計測し、最適な介入ポリシーを発見することである。
最適な政策学習に関するほとんどの研究とは対照的に、格差低減自体を目的として検討する。
論文 参考訳(メタデータ) (2021-07-01T16:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。