論文の概要: Group Fairness Is Not Derivable From Justice: a Mathematical Proof
- arxiv url: http://arxiv.org/abs/2202.03880v1
- Date: Tue, 8 Feb 2022 14:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:46:00.672440
- Title: Group Fairness Is Not Derivable From Justice: a Mathematical Proof
- Title(参考訳): 集団公正は正義から導かれるものではない:数学的証明
- Authors: Nicol\`o Cangiotti and Michele Loi
- Abstract要約: 「集団公正」とは、道徳的に任意の特徴から無罪の被告人全員に無罪または有罪判決の機会を確保することである。
数学的には、完全な手続き(誤りを伴わない)、非決定論的手続き、または退化処理のみが群公正性を保証することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that an imperfect criminal law procedure cannot be group-fair, if
'group fairness' involves ensuring the same chances of acquittal or convictions
to all innocent defendants independently of their morally arbitrary features.
We show mathematically that only a perfect procedure (involving no mistake), a
non-deterministic one, or a degenerate one (everyone or no one is convicted)
can guarantee group fairness, in the general case. Following a recent proposal,
we adopt a definition of group fairness, requiring that individuals who are
equal in merit ought to have the same statistical chances of obtaining
advantages and disadvantages, in a way that is statistically independent of any
of their feature that does not count as merit. We explain by mathematical
argument that the only imperfect procedures offering an a-priori guarantee of
fairness in relation to all non-merit trait are lotteries or degenerate ones
(i.e., everyone or no one is convicted). To provide a more intuitive point of
view, we exploit an adjustment of the well-known ROC space, in order to
represent all possible procedures in our model by a schematic diagram. The
argument seems to be equally valid for all human procedures, provided they are
imperfect. This clearly includes algorithmic decision-making, including
decisions based on statistical predictions, since in practice all statistical
models are error prone.
- Abstract(参考訳): もし「集団公正」が、道徳的に任意的な特徴とは無関係に、全ての無実の被告に無罪または有罪判決の機会を保証しているなら、不完全な刑事法手続は集団公正であるはずがないと主張する。
一般に、完全手続き(間違いを起こさない)、非決定論的な手続き、または縮退した手続き(誰一人か誰も有罪判決を受けていない)だけが集団公正を保証できることを数学的に示す。
近年の提案に従えば, 集団公平性の定義を採り入れ, 同等のメリットを持つ個人は, 利益やデメリットを得るための同じ統計的機会を, メリットとして考慮しない特徴とは統計的に独立に持つべきである。
数学的な議論によって、全ての非商業的特質に対する公正性を保証する唯一の不完全な手続きは、宝くじか退行である(すなわち、全員または誰も有罪ではない)。
より直感的な視点を提供するため、我々はモデルで可能な全ての手順を図式で表現するために、よく知られたroc空間の調整を利用する。
この議論は、不完全であるとして、すべての人間の手続きに等しく有効であるように見える。
これは明らかに、統計的予測に基づく決定を含むアルゴリズム的意思決定を含んでいる。
関連論文リスト
- What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Equalised Odds is not Equal Individual Odds: Post-processing for Group and Individual Fairness [13.894631477590362]
グループフェアネスは、保護されたサブ人口間の予測分布を等化することによって達成される。
個々人の公平さには 同じような扱いが必要です
この手順は、異なる分類の確率を持つ同じ保護グループの2つの類似した個人を与えることができる。
論文 参考訳(メタデータ) (2023-04-19T16:02:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Reconciling Individual Probability Forecasts [78.0074061846588]
データに同意する2つの当事者は、個々の確率をモデル化する方法に異を唱えることができない。
個々の確率は不可知であるが、計算的かつデータ効率のよいプロセスで競合できると結論付ける。
論文 参考訳(メタデータ) (2022-09-04T20:20:35Z) - Pushing the limits of fairness impossibility: Who's the fairest of them
all? [6.396013144017572]
3つの指標を最大限に満たすために,不合理定理の限界を押し上げる枠組みを提案する。
モデル性能を最小限に抑えつつ,各定義の公平性を両立できることを示す実験を行った。
論文 参考訳(メタデータ) (2022-08-24T22:04:51Z) - CertiFair: A Framework for Certified Global Fairness of Neural Networks [1.4620086904601473]
個人の公正さは、あるタスクに関して類似した個人が、ニューラルネットワーク(NN)モデルで同じように扱われることを示唆している。
分類タスクにおいて、所定のNNに対してフェアネス特性が保持するかどうかを確認する検証器を構築する。
次に、結果のNNの公平性に関する証明可能なバウンダリを提供する。
論文 参考訳(メタデータ) (2022-05-20T02:08:47Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。