論文の概要: Fair and Useful Cohort Selection
- arxiv url: http://arxiv.org/abs/2009.02207v2
- Date: Wed, 6 Apr 2022 17:28:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 02:16:27.738208
- Title: Fair and Useful Cohort Selection
- Title(参考訳): 公正で有用なコホート選択
- Authors: Konstantina Bairaktari and Paul Langton and Huy L. Nguyen and Niklas
Smedemark-Margulies and Jonathan Ullman
- Abstract要約: Dwork と Ilvento は、fair-cohort-selection 問題と呼ばれるアーティピーパル問題を導入した。
与えられた大きさの候補のグループを選択するために、単一の公正分類器がそれ自身で構成される。
オフライン設定とオンライン設定の両方で、この問題に対して最適な(あるいはほぼ最適)時間アルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 12.319543784920304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A challenge in fair algorithm design is that, while there are compelling
notions of individual fairness, these notions typically do not satisfy
desirable composition properties, and downstream applications based on fair
classifiers might not preserve fairness. To study fairness under composition,
Dwork and Ilvento introduced an archetypal problem called fair-cohort-selection
problem, where a single fair classifier is composed with itself to select a
group of candidates of a given size, and proposed a solution to this problem.
In this work we design algorithms for selecting cohorts that not only preserve
fairness, but also maximize the utility of the selected cohort under two
notions of utility that we introduce and motivate. We give optimal (or
approximately optimal) polynomial-time algorithms for this problem in both an
offline setting, and an online setting where candidates arrive one at a time
and are classified as they arrive.
- Abstract(参考訳): フェアアルゴリズム設計における課題は、個々のフェアネスに関する説得力のある概念があるが、これらの概念は典型的には望ましい組成特性を満足せず、フェア分類器に基づく下流の応用はフェアネスを保たないということである。
構成下の公平性を研究するため、dwork と ilvento はフェアコホート選択問題(fair-cohort-selection problem)と呼ばれる古い問題を導入した。
本研究は, 公平性を保つだけでなく, 選択したコホートの有用性を最大化するコホートを選択するアルゴリズムを, 導入・動機づけする2つの実用概念の下で設計する。
我々は、オフライン設定とオンライン設定の両方において、この問題に対して最適な(あるいはほぼ最適な)多項式時間アルゴリズムを与える。
関連論文リスト
- DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Fair Sequential Selection Using Supervised Learning Models [11.577534539649374]
我々は、連続して到着した応募者が限られた数の位置/ジョブを申請する選択問題を考える。
一般の公正概念を満足する事前学習モデルであっても、選択の結果は特定の人口集団に偏っている可能性があることを示す。
本稿では、連続選択問題に適した「平等選択(ES)」という新たなフェアネス概念を導入し、ESフェアネス概念を満たすための後処理アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-26T19:45:26Z) - Fair and Optimal Cohort Selection for Linear Utilities [0.0]
フェアコホート選択問題を導入し、単一のフェア分類器がそれ自身で構成された特定のアプリケーションを取り込んで、正確に$k$の候補群を選択する。
我々は,公平な分類器全体を一度に与えるオフライン設定と,候補者が到着した時点で分類されるオンライン設定の両方において,この問題に対する最適な時間アルゴリズムを与える。
論文 参考訳(メタデータ) (2021-02-15T17:26:46Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Genetic programming approaches to learning fair classifiers [4.901632310846025]
フェアネスを分類のための遺伝的プログラミングに組み込んだ、公正さと動機付けの提案に対する現在のアプローチについて論じる。
1つ目は、フェアネスの目的を多目的最適化に組み込むことである。
2つ目は、保護群の交叉上のケースを動的に定義するために語彙選択を適用することである。
論文 参考訳(メタデータ) (2020-04-28T04:20:25Z) - Optimal Clustering from Noisy Binary Feedback [75.17453757892152]
本稿では,二元的ユーザフィードバックから一組のアイテムをクラスタリングする問題について検討する。
最小クラスタ回復誤差率のアルゴリズムを考案する。
適応選択のために,情報理論的誤差下界の導出にインスパイアされたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2019-10-14T09:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。