論文の概要: Four Bottomless Errors and the Collapse of Statistical Fairness
- arxiv url: http://arxiv.org/abs/2504.13790v1
- Date: Fri, 18 Apr 2025 16:42:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 14:49:33.733685
- Title: Four Bottomless Errors and the Collapse of Statistical Fairness
- Title(参考訳): 4つのボトムレス誤差と統計的公正性の崩壊
- Authors: James Brusseau,
- Abstract要約: この議論は、統計的公平さの中で4つの繰り返し発生する誤りを特定することによって進められる。
平等と公正を混同し、類似が同様に扱われる考え方を限定する。
第2と第3の誤りは、他者とその視点を否定することによって機能する観念的倫理観に由来する。
最終的な誤りは、制約のない公正さが後にグループ構成を定義することを許すのではなく、事前に定義された社会グループ内で働くようフェアネスを制約する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The AI ethics of statistical fairness is an error, the approach should be abandoned, and the accumulated academic work deleted. The argument proceeds by identifying four recurring mistakes within statistical fairness. One conflates fairness with equality, which confines thinking to similars being treated similarly. The second and third errors derive from a perspectival ethical view which functions by negating others and their viewpoints. The final mistake constrains fairness to work within predefined social groups instead of allowing unconstrained fairness to subsequently define group composition. From the nature of these misconceptions, the larger argument follows. Because the errors are integral to how statistical fairness works, attempting to resolve the difficulties only deepens them. Consequently, the errors cannot be corrected without undermining the larger project, and statistical fairness collapses from within. While the collapse ends a failure in ethics, it also provokes distinct possibilities for fairness, data, and algorithms. Quickly indicating some of these directions is a secondary aim of the paper, and one that aligns with what fairness has consistently meant and done since Aristotle.
- Abstract(参考訳): 統計的公正性のAI倫理は誤りであり、アプローチは放棄されるべきであり、蓄積された学術的作業は削除される。
この議論は、統計的公平さの中で4つの繰り返し発生する誤りを特定することによって進められる。
平等と公正を混同し、類似が同様に扱われる考え方を限定する。
第2と第3の誤りは、他者とその視点を否定することによって機能する観念的倫理観に由来する。
最終的な誤りは、制約のない公正さが後にグループ構成を定義することを許すのではなく、事前に定義された社会グループ内で働くようフェアネスを制約する。
これらの誤解の性質から、より大きな議論が続く。
誤差は統計的公平性に不可欠なため、難易度を解決しようとすると、それらがより深くなる。
その結果、より大きなプロジェクトを損なうことなくエラーを修正することができず、統計的公正性は内部から崩壊する。
この崩壊は倫理学の失敗を終わらせる一方で、公正性、データ、そしてアルゴリズムに対する明確な可能性も引き起こす。
これらの方向のいくつかを素早く示すことは、論文の二次的な目的であり、アリストテレス以来の公平さが一貫して意味し、行われてきたものと一致している。
関連論文リスト
- Implementing Fairness in AI Classification: The Role of Explainability [0.0]
AI分類における公平性の実装には、公正度測定を単に運用すること以上の作業が必要だ、と我々は主張する。
トレーニングプロセスを透過化し、フェアネス基準が実際に生み出す成果を判断し、トレードオフを評価する。
これらの説明的なステップがAIモデルを信頼できるものにする方法に関する結論を導きます。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - The Possibility of Fairness: Revisiting the Impossibility Theorem in
Practice [5.175941513195566]
非互換な公正性制約を満たすようなモデルの大規模な集合を同定することは可能であることを示す。
私たちは、実践者が、いつ、そして、どのようにして、複数の基準に沿った公平性を達成できるかを理解するためのツールとガイダンスを提供します。
論文 参考訳(メタデータ) (2023-02-13T13:29:24Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Identifiability of Causal-based Fairness Notions: A State of the Art [4.157415305926584]
機械学習アルゴリズムは、偏見のある結果/予測を生成することができ、通常は少数派や少数民族に対するものである。
本論文は,機械学習の公正性に特に関係する主要な識別可能性の結果をまとめたものである。
論文 参考訳(メタデータ) (2022-03-11T13:10:32Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。