論文の概要: On the Power of Randomization in Fair Classification and Representation
- arxiv url: http://arxiv.org/abs/2406.03142v2
- Date: Mon, 07 Oct 2024 06:32:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:11:12.125801
- Title: On the Power of Randomization in Fair Classification and Representation
- Title(参考訳): 公平な分類と表現におけるランダム化の力について
- Authors: Sushant Agarwal, Amit Deshpande,
- Abstract要約: 正当性制約を課す際に生じる精度の損失を最小限に抑えるためにランダム化の力を示す。
本研究では, DPフェア, EOフェア, PEフェアの表現を, 最適なDPフェア, EOフェア, PEフェアの分類器に比較して, 高い精度で, 精度を損なうことなく構築する。
- 参考スコア(独自算出の注目度): 4.423655941492362
- License:
- Abstract: Fair classification and fair representation learning are two important problems in supervised and unsupervised fair machine learning, respectively. Fair classification asks for a classifier that maximizes accuracy on a given data distribution subject to fairness constraints. Fair representation maps a given data distribution over the original feature space to a distribution over a new representation space such that all classifiers over the representation satisfy fairness. In this paper, we examine the power of randomization in both these problems to minimize the loss of accuracy that results when we impose fairness constraints. Previous work on fair classification has characterized the optimal fair classifiers on a given data distribution that maximize accuracy subject to fairness constraints, e.g., Demographic Parity (DP), Equal Opportunity (EO), and Predictive Equality (PE). We refine these characterizations to demonstrate when the optimal randomized fair classifiers can surpass their deterministic counterparts in accuracy. We also show how the optimal randomized fair classifier that we characterize can be obtained as a solution to a convex optimization problem. Recent work has provided techniques to construct fair representations for a given data distribution such that any classifier over this representation satisfies DP. However, the classifiers on these fair representations either come with no or weak accuracy guarantees when compared to the optimal fair classifier on the original data distribution. Extending our ideas for randomized fair classification, we improve on these works, and construct DP-fair, EO-fair, and PE-fair representations that have provably optimal accuracy and suffer no accuracy loss compared to the optimal DP-fair, EO-fair, and PE-fair classifiers respectively on the original data distribution.
- Abstract(参考訳): 公平な分類と公平な表現学習は、それぞれ教師なしと教師なしの公正な機械学習において重要な2つの問題である。
公平な分類は、公正な制約の対象となる所定のデータ分布の精度を最大化する分類器を求める。
公正表現は、元の特徴空間上の与えられたデータ分布を、表現上のすべての分類器が公正性を満たすような新しい表現空間上の分布にマッピングする。
本稿では,両問題におけるランダム化のパワーについて検討し,公平性制約を課すと得られる精度の損失を最小限に抑える。
公正な分類に関するこれまでの研究は、公正な制約(例えば、デモグラフィック・パリティ(DP)、平等な機会(EO)、予測的平等(PE)といった、公正な制約による精度を最大化する、与えられたデータ分布上の最適な公平な分類器を特徴付けてきた。
最適ランダム化公正分類器がそれらの決定論的分類を精度で超越できることを示すために,これらの特徴を洗練する。
また、凸最適化問題の解法として、我々が特徴付ける最適ランダム化公正分類器がどう得られるかを示す。
最近の研究は、与えられたデータ分布に対して公平な表現を構築する技術を提供し、この表現上の分類器がDPを満たすようにしている。
しかし、これらの公正表現上の分類器は、元のデータ分布における最適な公平な分類器と比較して、全くまたは弱い精度を保証する。
ランダム化された公平な分類のためのアイデアを拡張し、これらの作業を改善し、DP-fair, EO-fair, PE-fair表現を構築し、それぞれオリジナルのデータ分布において最適なDP-fair, EO-fair, PE-fair分類器と比較して、高い精度で精度を損なわない。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - How Far Can Fairness Constraints Help Recover From Biased Data? [9.430687114814997]
公平な分類に関する一般的な信念は、公正な制約は正確さとトレードオフを引き起こし、バイアスのあるデータが悪化する可能性があるというものである。
この信念とは対照的に、Blum & Stangl は、非常に偏りのあるデータであっても、同じ機会制約による公平な分類は、元のデータ分布上で最適に正確かつ公平な分類を回復できることを示した。
論文 参考訳(メタデータ) (2023-12-16T09:49:31Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Impossibility results for fair representations [12.483260526189447]
我々は、それを用いて訓練された異なるタスクに対して、分類器の公平性を保証できないことを論じる。
Odds Equalityのようなより洗練された公正の概念は、タスク固有のラベル付け規則を考慮していない表現によって保証されない。
論文 参考訳(メタデータ) (2021-07-07T21:12:55Z) - A Distributionally Robust Approach to Fair Classification [17.759493152879013]
本研究では、性別や民族などのセンシティブな属性に対する差別を防止する不公平なペナルティを持つロジスティックなロジスティック回帰モデルを提案する。
このモデルは、トレーニングデータ上の経験的分布を中心とするワッサーシュタイン球が分布の不確かさのモデル化に使用される場合、トラクタブル凸最適化問題と等価である。
得られた分類器は, 合成データセットと実データセットの両方において, 予測精度の限界損失による公平性の向上を実証する。
論文 参考訳(メタデータ) (2020-07-18T22:34:48Z) - Ensuring Fairness Beyond the Training Data [22.284777913437182]
トレーニング分布と摂動のクラスに対して公平な分類器を開発する。
オンライン学習アルゴリズムに基づいて、公正で堅牢な解に収束する反復アルゴリズムを開発する。
実験の結果, 正当性と正当性との間には, 本質的にトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2020-07-12T16:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。