論文の概要: On the (In)Compatibility between Group Fairness and Individual Fairness
- arxiv url: http://arxiv.org/abs/2401.07174v1
- Date: Sat, 13 Jan 2024 23:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:33:54.959377
- Title: On the (In)Compatibility between Group Fairness and Individual Fairness
- Title(参考訳): 集団フェアネスと個人フェアネスの(in)相性について
- Authors: Shizhou Xu and Thomas Strohmer
- Abstract要約: 最適統計パリティ解と個人公正性との整合性について検討する。
トレーニングされたモデルの構成と最適な後処理ステップに対して、個別の公正性を保証する。
- 参考スコア(独自算出の注目度): 3.6052935394000234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the compatibility between the optimal statistical parity solutions
and individual fairness. While individual fairness seeks to treat similar
individuals similarly, optimal statistical parity aims to provide similar
treatment to individuals who share relative similarity within their respective
sensitive groups. The two fairness perspectives, while both desirable from a
fairness perspective, often come into conflict in applications. Our goal in
this work is to analyze the existence of this conflict and its potential
solution. In particular, we establish sufficient (sharp) conditions for the
compatibility between the optimal (post-processing) statistical parity $L^2$
learning and the ($K$-Lipschitz or $(\epsilon,\delta)$) individual fairness
requirements. Furthermore, when there exists a conflict between the two, we
first relax the former to the Pareto frontier (or equivalently the optimal
trade-off) between $L^2$ error and statistical disparity, and then analyze the
compatibility between the frontier and the individual fairness requirements.
Our analysis identifies regions along the Pareto frontier that satisfy
individual fairness requirements. (Lastly, we provide individual fairness
guarantees for the composition of a trained model and the optimal
post-processing step so that one can determine the compatibility of the
post-processed model.) This provides practitioners with a valuable approach to
attain Pareto optimality for statistical parity while adhering to the
constraints of individual fairness.
- Abstract(参考訳): 最適統計パリティ解と個別公平性の両立について検討する。
個人フェアネスは類似した個人を同じように扱うことを目指しているが、最適な統計パリティは、それぞれの敏感なグループで相対的類似性を共有する個人に対して同様の治療を提供することを目標としている。
2つのフェアネスの観点はどちらもフェアネスの観点から望ましいが、アプリケーションでしばしば衝突する。
この研究の目標は、この衝突とその潜在的な解決策の存在を分析することです。
特に、最適 (後処理) 統計パリティ $l^2$ 学習と (k$-lipschitz または $(\epsilon,\delta)$) 個別公平性要求との互換性のために十分な (シャープな) 条件を確立する。
さらに、両者の間に紛争が発生した場合、まず、前者をパレート・フロンティア(あるいは同じ意味での最適トレードオフ)へリラックスさせ、l^2$の誤差と統計的不一致から、フロンティアと個別のフェアネス要件の互換性を分析する。
本分析では,個別の公正要件を満たすパレートフロンティア沿いの地域を特定する。
(最後に、訓練されたモデルの構成と最適な後処理ステップについて個別の公平性を保証することにより、後処理されたモデルの互換性を決定できる。)
これは、個々の公平性の制約に固執しながら、統計的パリティに対してパレート最適性を達成するための貴重なアプローチを提供する。
関連論文リスト
- Assessing Group Fairness with Social Welfare Optimization [0.9217021281095907]
本稿では,社会福祉機能の最適化に基づくより広範な社会的正義の概念が,パーティの定義の多様さを評価する上で有用かどうかを考察する。
特定の条件下では、人口比率や均等化確率を正当化できるが、しばしばこの種のパリティから逸脱する必要がある。
さらに,予測率パリティは有用性に限界があることが判明した。
論文 参考訳(メタデータ) (2024-05-19T01:41:04Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Equalised Odds is not Equal Individual Odds: Post-processing for Group and Individual Fairness [13.894631477590362]
グループフェアネスは、保護されたサブ人口間の予測分布を等化することによって達成される。
個々人の公平さには 同じような扱いが必要です
この手順は、異なる分類の確率を持つ同じ保護グループの2つの類似した個人を与えることができる。
論文 参考訳(メタデータ) (2023-04-19T16:02:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Proportional Fairness in Obnoxious Facility Location [70.64736616610202]
この問題に対して,距離に基づく比例フェアネスの概念の階層構造を提案する。
決定論的かつランダムなメカニズムを考察し、比例フェアネスの価格に関する厳密な境界を計算する。
モデルの拡張が2つあることを示す。
論文 参考訳(メタデータ) (2023-01-11T07:30:35Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Accurate Fairness: Improving Individual Fairness without Trading
Accuracy [4.0415037006237595]
本研究では,個別の公正度を精度に合わせるために,新しい公正度基準,正確な公正度を提案する。
正確な公正性はまた、類似のサブ集団の合併に対する典型的な群フェアネス基準をも意味している。
私たちの知る限りでは、シームズアプローチがバイアス軽減に適応するのはこれが初めてです。
論文 参考訳(メタデータ) (2022-05-18T03:24:16Z) - Multi-Stage Decentralized Matching Markets: Uncertain Preferences and
Strategic Behaviors [91.3755431537592]
本稿では、現実世界のマッチング市場で最適な戦略を学ぶためのフレームワークを開発する。
我々は,不確実性レベルが特徴の福祉対フェアネストレードオフが存在することを示す。
シングルステージマッチングと比較して、マルチステージマッチングで参加者がより良くなることを証明します。
論文 参考訳(メタデータ) (2021-02-13T19:25:52Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - FACT: A Diagnostic for Group Fairness Trade-offs [23.358566041117083]
グループフェアネス(グループフェアネス、英: Group Fairness)とは、個人の異なる集団が保護された属性によってどのように異なる扱いを受けるかを測定するフェアネスの概念のクラスである。
グループフェアネスにおけるこれらのトレードオフを体系的に評価できる一般的な診断法を提案する。
論文 参考訳(メタデータ) (2020-04-07T14:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。