論文の概要: Individual Fairness under Varied Notions of Group Fairness in Bipartite Matching - One Framework to Approximate Them All
- arxiv url: http://arxiv.org/abs/2208.09951v4
- Date: Fri, 10 May 2024 08:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 20:56:05.876264
- Title: Individual Fairness under Varied Notions of Group Fairness in Bipartite Matching - One Framework to Approximate Them All
- Title(参考訳): 両部一致におけるグループフェアネスの誤記による個人フェアネス -全部を近似する一つの枠組み-
- Authors: Atasi Panda, Anand Louis, Prajakta Nimbhorkar,
- Abstract要約: 本研究では,群と個体の公正性の制約を満たすプラットフォームへの項目の割り当てについて検討する。
我々の手法は、ランダムなマッチングを得るために、両方の世界の公正な解のベストを探索する。
我々は,グループフェアネスと個人フェアネストレードオフのバランスをとるために,ユーザが選択できる2つの近似アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.9963683296786414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the probabilistic assignment of items to platforms that satisfies both group and individual fairness constraints. Each item belongs to specific groups and has a preference ordering over platforms. Each platform enforces group fairness by limiting the number of items per group that can be assigned to it. There could be multiple optimal solutions that satisfy the group fairness constraints, but this alone ignores item preferences. Our approach explores a `best of both worlds fairness' solution to get a randomized matching, which is ex-ante individually fair and ex-post group-fair. Thus, we seek a `probabilistic individually fair' distribution over `group-fair' matchings where each item has a `high' probability of matching to one of its top choices. This distribution is also ex-ante group-fair. Users can customize fairness constraints to suit their requirements. Our first result is a polynomial-time algorithm that computes a distribution over `group-fair' matchings such that the individual fairness constraints are approximately satisfied and the expected size of a matching is close to OPT. We empirically test this on real-world datasets. We present two additional polynomial-time bi-criteria approximation algorithms that users can choose from to balance group fairness and individual fairness trade-offs. For disjoint groups, we provide an exact polynomial-time algorithm adaptable to additional lower `group fairness' bounds. Extending our model, we encompass `maxmin group fairness,' amplifying underrepresented groups, and `mindom group fairness,' reducing the representation of dominant groups.'
- Abstract(参考訳): 本研究では,群と個体の公正性の制約を満たすプラットフォームへの項目の確率的割り当てについて検討する。
各項目は特定のグループに属し、プラットフォーム上での優先順序を持つ。
各プラットフォームは、グループごとに割り当てられるアイテムの数を制限することで、グループフェアネスを強制する。
群フェアネスの制約を満たす最適解が複数存在するかもしれないが、これはアイテムの選好を無視している。
提案手法では, ランダムなマッチングを実現するために, 「両世界のフェアネスのベスト」 な解を探索する。
したがって、各項目が上位選択の1つに一致する「高い」確率を持つ「群フェア」マッチングに対して「確率的個性公正」分布を求める。
この分布は元アンティー・グループフェアでもある。
ユーザーは自分の要求に合うようにフェアネスの制約をカスタマイズできる。
最初の結果は,「グループフェア」マッチングの分布を計算する多項式時間アルゴリズムであり,各フェアネス制約がほぼ満たされ,マッチングの期待サイズがOPTに近くなる。
実世界のデータセットでこれを実証的にテストします。
本稿では,グループフェアネスと個別フェアネストレードオフのバランスをとるために,多項式時間ビクテリア近似アルゴリズムを2つ提案する。
解群に対しては、さらに低い 'group fairness' 境界に適応する正確な多項式時間アルゴリズムを提供する。
モデルを拡張して、'maxmin group fairness'、'mindom group fairness'、'mindom group fairness'、および'mindom group fairness'を網羅し、支配的群の表現を減らした。
>
関連論文リスト
- A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Fair Labeled Clustering [28.297893914525517]
クラスタリングのダウンストリーム適用と,そのような設定に対してグループフェアネスをどのように確保するかを検討する。
このような問題に対するアルゴリズムを提供し、グループフェアクラスタリングにおけるNPハードのアルゴリズムとは対照的に、効率的な解が可能であることを示す。
また、距離空間における中心位置に関係なく、意思決定者が自由にクラスタにラベルを割り当てることができるような、モチベーションのよい代替設定についても検討する。
論文 参考訳(メタデータ) (2022-05-28T07:07:12Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Maxmin-Fair Ranking: Individual Fairness under Group-Fairness
Constraints [11.3077234652777]
グループフェアの制約を課す際に生じる個人不公平の量を最小限に抑えることを目的としたランキングにおける公平性の新たな問題について検討する。
提案手法は, ランダム化を用いて, 最悪の個人が期待する満足度を最大化する分布最大化理論に根ざしている。
論文 参考訳(メタデータ) (2021-06-16T09:27:12Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。