論文の概要: Individual fairness under Varied Notions of Group Fairness in Bipartite
Matching -- One Framework to Approximate Them Al
- arxiv url: http://arxiv.org/abs/2208.09951v3
- Date: Tue, 6 Jun 2023 13:28:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 22:04:36.031463
- Title: Individual fairness under Varied Notions of Group Fairness in Bipartite
Matching -- One Framework to Approximate Them Al
- Title(参考訳): 両部マッチングにおけるグループフェアネスの誤記による個人フェアネス-Them Alを近似するための一枠組み
- Authors: Atasi Panda, Anand Louis, Prajakta Nimbhorkar
- Abstract要約: 我々は,グループや個々人の公正性の制約を満足しつつ,各項目をプラットフォームに割り当てることの問題点を考察する。
複数の最適解が存在するかもしれないが、群フェアマッチングの分布を計算して確率的個人フェアネスを達成することを目的としている。
我々はさらにモデルとアルゴリズムを拡張して、次のフェアネスの概念に対処する: 極小群フェアネス(maxmin group fairness)、そして最も支配的な群の表現を最小化するマインドム群フェアネス( mindom group fairness)。
- 参考スコア(独自算出の注目度): 3.8551072383777596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of assigning items to platforms while satisfying
group and individual fairness constraints. Each item is associated with certain
groups and has a preference ordering over platforms. Each platform enforces
group fairness by specifying an upper and a lower bound on the number of items
that can be matched to it from each group. Although there may be multiple
optimal solutions that satisfy the group fairness constraints, we aim to
achieve `probabilistic individual fairness' by computing a distribution over
`group fair' matchings such that each item has a reasonable probability of
being matched to one of its top choices. When each item can belong to multiple
groups, the problem of finding a maximum size group-fair matching is NP-hard
even when all the group lower bounds are 0, and there are no individual
fairness constraints. Given a total of $n$ items, we achieve a $O(\Delta \log
n)$ approximation algorithm when an item can belong to at most $\Delta$ groups,
and all the group lower bounds are 0. We also provide two approximation
algorithms in terms of the total number of groups that have items in the
neighborhood of a platform. When each item belongs to a single group, we
provide a polynomial-time algorithm that computes a probabilistic individually
fair distribution over group fair matching. We further extend our model and
algorithms to address the following notions of fairness: `maxmin group
fairness', which maximizes the representation of the worst-off groups, and
`mindom group fairness', which minimizes the representation of the most
dominant groups.
- Abstract(参考訳): 我々は, 個別の公平性制約を満たしながら, プラットフォームにアイテムを割り当てる問題を考える。
それぞれの項目は特定のグループに関連付けられ、プラットフォーム上の優先順序を持つ。
各プラットフォームは、各グループからマッチできるアイテムの数の上限と下限を指定することで、グループフェア性を強制する。
群フェアネス制約を満たす複数の最適解が存在するかもしれないが、我々は「群フェア」マッチングの分布を計算して「確率的個人フェアネス」を達成することを目指している。
各項目が複数の群に属することができるとき、最大サイズのグループフェアマッチングを求める問題は、すべての群の下限が 0 であってもNPハードであり、個々の公正性制約はない。
合計$n$アイテムが与えられたとき、あるアイテムが少なくとも$\Delta$グループに属し、すべての群下限が 0 であるときに、$O(\Delta \log n)$近似アルゴリズムを達成する。
また,プラットフォーム近傍にアイテムを持つグループの総数に関して,近似アルゴリズムを2つ提供している。
各項目が1つのグループに属する場合、確率的に公平な分布を群フェアマッチング上で計算する多項式時間アルゴリズムを提供する。
私たちはさらにモデルとアルゴリズムを拡張して、フェアネスの次の概念に対処します。「最大群フェアネス」は最悪のグループの表現を最大化し、最も支配的なグループの表現を最小化する「ミニドム群フェアネス」です。
関連論文リスト
- A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Fair Labeled Clustering [28.297893914525517]
クラスタリングのダウンストリーム適用と,そのような設定に対してグループフェアネスをどのように確保するかを検討する。
このような問題に対するアルゴリズムを提供し、グループフェアクラスタリングにおけるNPハードのアルゴリズムとは対照的に、効率的な解が可能であることを示す。
また、距離空間における中心位置に関係なく、意思決定者が自由にクラスタにラベルを割り当てることができるような、モチベーションのよい代替設定についても検討する。
論文 参考訳(メタデータ) (2022-05-28T07:07:12Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Maxmin-Fair Ranking: Individual Fairness under Group-Fairness
Constraints [11.3077234652777]
グループフェアの制約を課す際に生じる個人不公平の量を最小限に抑えることを目的としたランキングにおける公平性の新たな問題について検討する。
提案手法は, ランダム化を用いて, 最悪の個人が期待する満足度を最大化する分布最大化理論に根ざしている。
論文 参考訳(メタデータ) (2021-06-16T09:27:12Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。