論文の概要: Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency
- arxiv url: http://arxiv.org/abs/2206.02237v1
- Date: Sun, 5 Jun 2022 18:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 18:05:02.151306
- Title: Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency
- Title(参考訳): アルゴリズム意思決定における集団公平性強化--十分性下での実用的最大化
- Authors: Joachim Baumann, Anik\'o Hann\'ak, Christoph Heitz
- Abstract要約: 本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary decision making classifiers are not fair by default. Fairness
requirements are an additional element to the decision making rationale, which
is typically driven by maximizing some utility function. In that sense,
algorithmic fairness can be formulated as a constrained optimization problem.
This paper contributes to the discussion on how to implement fairness, focusing
on the fairness concepts of positive predictive value (PPV) parity, false
omission rate (FOR) parity, and sufficiency (which combines the former two). We
show that group-specific threshold rules are optimal for PPV parity and FOR
parity, similar to well-known results for other group fairness criteria.
However, depending on the underlying population distributions and the utility
function, we find that sometimes an upper-bound threshold rule for one group is
optimal: utility maximization under PPV parity (or FOR parity) might thus lead
to selecting the individuals with the smallest utility for one group, instead
of selecting the most promising individuals. This result is counter-intuitive
and in contrast to the analogous solutions for statistical parity and equality
of opportunity. We also provide a solution for the optimal decision rules
satisfying the fairness constraint sufficiency. We show that more complex
decision rules are required and that this leads to within-group unfairness for
all but one of the groups. We illustrate our findings based on simulated and
real data.
- Abstract(参考訳): バイナリ意思決定分類器はデフォルトではフェアではない。
公正要件は意思決定の合理化に付加的な要素であり、これは典型的には実用関数の最大化によって引き起こされる。
その意味で、アルゴリズム的公平性は制約付き最適化問題として定式化することができる。
本稿では、正の予測値(ppv)パリティ、偽の欠落率(for)パリティ、および(前者の2つを組み合わせた)充足性の公平性の概念に焦点を当て、公平性をどのように実装するかに関する議論に寄与する。
グループ固有のしきい値規則は、他のグループフェアネス基準でよく知られた結果と同様、PPVパリティとforパリティに最適であることを示す。
しかし、人口分布と効用関数によっては、1つのグループに対する上限値規則が最適であることがある: ppvパリティ(またはパリティ)の下での効用最大化は、最も有望な個人を選ぶのではなく、1つのグループで最小の効用を持つ個人を選ぶことになるかもしれない。
この結果は反直観的であり、統計的パリティと機会の平等に対する類似の解とは対照的である。
また,フェアネス制約を満たす最適決定規則の解も提供する。
より複雑な決定ルールが必要であり、グループ内の1つを除くすべてのグループに対して不公平になることを示す。
シミュレーションデータと実データに基づいて,本研究の成果を示す。
関連論文リスト
- Assessing Group Fairness with Social Welfare Optimization [0.9217021281095907]
本稿では,社会福祉機能の最適化に基づくより広範な社会的正義の概念が,パーティの定義の多様さを評価する上で有用かどうかを考察する。
特定の条件下では、人口比率や均等化確率を正当化できるが、しばしばこの種のパリティから逸脱する必要がある。
さらに,予測率パリティは有用性に限界があることが判明した。
論文 参考訳(メタデータ) (2024-05-19T01:41:04Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Individual Fairness under Varied Notions of Group Fairness in Bipartite Matching - One Framework to Approximate Them All [1.9963683296786414]
本研究では,群と個体の公正性の制約を満たすプラットフォームへの項目の割り当てについて検討する。
我々の手法は、ランダムなマッチングを得るために、両方の世界の公正な解のベストを探索する。
我々は,グループフェアネスと個人フェアネストレードオフのバランスをとるために,ユーザが選択できる2つの近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-21T19:33:36Z) - Fair Bayes-Optimal Classifiers Under Predictive Parity [33.648053823193855]
本稿では、異なる保護群間での正の予測から、成功の確率を等しくする必要がある予測パリティについて考察する。
本研究では,FairBayes-DPPと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-15T04:58:10Z) - Probabilistic Permutation Graph Search: Black-Box Optimization for
Fairness in Ranking [53.94413894017409]
本稿では、置換グラフの概念に基づいて、置換分布を表現する新しい方法を提案する。
PLと同様に、PPGと呼ばれる分布表現は、公正性のブラックボックス最適化に利用できる。
論文 参考訳(メタデータ) (2022-04-28T20:38:34Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Genetic programming approaches to learning fair classifiers [4.901632310846025]
フェアネスを分類のための遺伝的プログラミングに組み込んだ、公正さと動機付けの提案に対する現在のアプローチについて論じる。
1つ目は、フェアネスの目的を多目的最適化に組み込むことである。
2つ目は、保護群の交叉上のケースを動的に定義するために語彙選択を適用することである。
論文 参考訳(メタデータ) (2020-04-28T04:20:25Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。