論文の概要: The AI Fairness Myth: A Position Paper on Context-Aware Bias
- arxiv url: http://arxiv.org/abs/2505.00965v1
- Date: Fri, 02 May 2025 02:47:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.88665
- Title: The AI Fairness Myth: A Position Paper on Context-Aware Bias
- Title(参考訳): AIフェアネス神話 - コンテキスト認識バイアスに関するポジションペーパー
- Authors: Kessia Nepomuceno, Fabio Petrillo,
- Abstract要約: フェアネスは、歴史的に疎外されたグループに対して、意図的かつ文脈に配慮した優遇措置を必要とする場合もある、と我々は主張する。
偏見を排除の欠陥と見なすのではなく、是正的、意図的な偏見を受け入れる枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Defining fairness in AI remains a persistent challenge, largely due to its deeply context-dependent nature and the lack of a universal definition. While numerous mathematical formulations of fairness exist, they sometimes conflict with one another and diverge from social, economic, and legal understandings of justice. Traditional quantitative definitions primarily focus on statistical comparisons, but they often fail to simultaneously satisfy multiple fairness constraints. Drawing on philosophical theories (Rawls' Difference Principle and Dworkin's theory of equality) and empirical evidence supporting affirmative action, we argue that fairness sometimes necessitates deliberate, context-aware preferential treatment of historically marginalized groups. Rather than viewing bias solely as a flaw to eliminate, we propose a framework that embraces corrective, intentional biases to promote genuine equality of opportunity. Our approach involves identifying unfairness, recognizing protected groups/individuals, applying corrective strategies, measuring impact, and iterating improvements. By bridging mathematical precision with ethical and contextual considerations, we advocate for an AI fairness paradigm that goes beyond neutrality to actively advance social justice.
- Abstract(参考訳): AIにおける公平性の定義は、主にコンテキストに依存した性質と普遍的な定義の欠如のために、依然として永続的な課題である。
公正性の数学的定式化は数多く存在するが、時には対立し合い、社会的、経済的、法的な正義の理解から遠ざかる。
伝統的な量的定義は主に統計的比較に焦点を当てるが、しばしば複数の公正性制約を同時に満たさない。
哲学理論(Rawls' difference Principle and Dworkin's theory of equality)と肯定的な行動を支持する実証的な証拠に基づいて、フェアネスは歴史的に境界付けられたグループの意図的、文脈的優先的な扱いを必要とすると論じる。
偏見を排除の欠陥とみなすのではなく、真に平等な機会を促進するために、是正的かつ意図的な偏見を受け入れる枠組みを提案する。
我々のアプローチは、不公平さの識別、保護されたグループ/個人認識、修正戦略の適用、影響の測定、改善の反復を含む。
倫理的・文脈的な考察で数学的精度をブリッジすることで、中立性を超えて社会正義を積極的に推進するAIフェアネスパラダイムを提唱する。
関連論文リスト
- Defining bias in AI-systems: Biased models are fair models [2.8360662552057327]
公平性の懸念に効果的に対処するためには、偏見の正確な概念化が必要であると論じる。
偏見を本質的に否定的あるいは不公平と見なすのではなく、偏見と差別を区別することの重要性を強調します。
論文 参考訳(メタデータ) (2025-02-25T10:28:16Z) - Implementing Fairness in AI Classification: The Role of Explainability [0.0]
AI分類における公平性の実装には、公正度測定を単に運用すること以上の作業が必要だ、と我々は主張する。
トレーニングプロセスを透過化し、フェアネス基準が実際に生み出す成果を判断し、トレードオフを評価する。
これらの説明的なステップがAIモデルを信頼できるものにする方法に関する結論を導きます。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Assessing Group Fairness with Social Welfare Optimization [0.9217021281095907]
本稿では,社会福祉機能の最適化に基づくより広範な社会的正義の概念が,パーティの定義の多様さを評価する上で有用かどうかを考察する。
特定の条件下では、人口比率や均等化確率を正当化できるが、しばしばこの種のパリティから逸脱する必要がある。
さらに,予測率パリティは有用性に限界があることが判明した。
論文 参考訳(メタデータ) (2024-05-19T01:41:04Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。