論文の概要: On the Moral Justification of Statistical Parity
- arxiv url: http://arxiv.org/abs/2011.02079v2
- Date: Thu, 21 Jan 2021 12:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 23:08:37.162778
- Title: On the Moral Justification of Statistical Parity
- Title(参考訳): 統計的パリティの道徳的正当性について
- Authors: Corinna Hertweck and Christoph Heitz and Michele Loi
- Abstract要約: 公正性の重要かつしばしば無視される側面は、道徳的な観点からある公正度測定をいかに正当化するかという問題である。
本研究の目的は,独立の統計的公正性基準に関連する道徳的側面を考察することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A crucial but often neglected aspect of algorithmic fairness is the question
of how we justify enforcing a certain fairness metric from a moral perspective.
When fairness metrics are proposed, they are typically argued for by
highlighting their mathematical properties. Rarely are the moral assumptions
beneath the metric explained. Our aim in this paper is to consider the moral
aspects associated with the statistical fairness criterion of independence
(statistical parity). To this end, we consider previous work, which discusses
the two worldviews "What You See Is What You Get" (WYSIWYG) and "We're All
Equal" (WAE) and by doing so provides some guidance for clarifying the possible
assumptions in the design of algorithms. We present an extension of this work,
which centers on morality. The most natural moral extension is that
independence needs to be fulfilled if and only if differences in predictive
features (e.g. high school grades and standardized test scores are predictive
of performance at university) between socio-demographic groups are caused by
unjust social disparities or measurement errors. Through two counterexamples,
we demonstrate that this extension is not universally true. This means that the
question of whether independence should be used or not cannot be satisfactorily
answered by only considering the justness of differences in the predictive
features.
- Abstract(参考訳): アルゴリズム的公正性の重要かつしばしば無視される側面は、道徳的観点からある公正度測定をいかに正当化するかという問題である。
公平性メトリクスが提案されるとき、それらは通常、数学的性質を強調することで議論される。
基準の下にある道徳的な仮定はまれである。
本研究の目的は,独立性(統計的パリティ)の統計的公平性基準に関連する道徳的側面を検討することである。
この目的のために、我々は、"What You See Is What You Get"(WYSIWYG)と"We're All Equal"(WAE)の2つの世界観を論じ、アルゴリズムの設計における想定される仮定を明らかにするためのガイダンスを提供している。
我々は、道徳に焦点を当てたこの作品の拡張を提示する。
最も自然な道徳的拡張は、社会的デモグラフィーグループ間の予測的特徴(例えば高校の成績や標準テストスコア)の違いが不公平な社会的格差や測定誤差によって引き起こされる場合のみ、独立が満たされる必要があることである。
2つの反例を通して、この拡張が普遍的に真でないことを示す。
これは、予測的特徴の相違点の正しさを考慮すれば、独立性の使用の有無を満足して答えることができないことを意味する。
関連論文リスト
- Implementing Fairness: the view from a FairDream [0.0]
私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Identifiability of Causal-based Fairness Notions: A State of the Art [4.157415305926584]
機械学習アルゴリズムは、偏見のある結果/予測を生成することができ、通常は少数派や少数民族に対するものである。
本論文は,機械学習の公正性に特に関係する主要な識別可能性の結果をまとめたものである。
論文 参考訳(メタデータ) (2022-03-11T13:10:32Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - A Weaker Faithfulness Assumption based on Triple Interactions [89.59955143854556]
より弱い仮定として, 2$-adjacency faithfulness を提案します。
より弱い仮定の下で適用可能な因果発見のための音方向規則を提案する。
論文 参考訳(メタデータ) (2020-10-27T13:04:08Z) - Fairness in machine learning: against false positive rate equality as a
measure of fairness [0.0]
2つの一般的な公正度尺度は、キャリブレーションと偽陽性率の等式である。
私はこれらの措置について考えるための倫理的枠組みを与え、偽陽性率が公正性について何も追跡していないと主張する。
論文 参考訳(メタデータ) (2020-07-06T17:03:58Z) - A Philosophy of Data [91.3755431537592]
我々は、統計計算に必要な基本特性から統計データの定義まで研究する。
我々は、有用なデータの必要性は、プロパティを根本的にユニークか等しく理解することを規則化する必要があると論じている。
データとデータ技術への依存度が高まるにつれて、この2つの特徴は現実の集合概念に影響を与えます。
論文 参考訳(メタデータ) (2020-04-15T14:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。