論文の概要: A Canonical Data Transformation for Achieving Inter- and Within-group
Fairness
- arxiv url: http://arxiv.org/abs/2310.15097v1
- Date: Mon, 23 Oct 2023 17:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 18:36:09.615395
- Title: A Canonical Data Transformation for Achieving Inter- and Within-group
Fairness
- Title(参考訳): グループ間公平性を達成するための標準データ変換
- Authors: Zachary McBride Lazri, Ivan Brugere, Xin Tian, Dana Dachman-Soled,
Antigoni Polychroniadou, Danial Dervovic, and Min Wu
- Abstract要約: 同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
- 参考スコア(独自算出の注目度): 17.820200610132265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Increases in the deployment of machine learning algorithms for applications
that deal with sensitive data have brought attention to the issue of fairness
in machine learning. Many works have been devoted to applications that require
different demographic groups to be treated fairly. However, algorithms that aim
to satisfy inter-group fairness (also called group fairness) may inadvertently
treat individuals within the same demographic group unfairly. To address this
issue, we introduce a formal definition of within-group fairness that maintains
fairness among individuals from within the same group. We propose a
pre-processing framework to meet both inter- and within-group fairness criteria
with little compromise in accuracy. The framework maps the feature vectors of
members from different groups to an inter-group-fair canonical domain before
feeding them into a scoring function. The mapping is constructed to preserve
the relative relationship between the scores obtained from the unprocessed
feature vectors of individuals from the same demographic group, guaranteeing
within-group fairness. We apply this framework to the COMPAS risk assessment
and Law School datasets and compare its performance in achieving inter-group
and within-group fairness to two regularization-based methods.
- Abstract(参考訳): センシティブなデータを扱うアプリケーション向けの機械学習アルゴリズムのデプロイメントの増加は、機械学習における公平性の問題に注目を集めている。
多くの研究は、異なる人口集団を公平に扱うように要求するアプリケーションに注がれている。
しかし、グループ間の公平性(グループフェアネスとも呼ばれる)を満たすアルゴリズムは、不当に同じ集団内の個人を不公平に扱うことがある。
この問題に対処するため,同グループ内の個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
このフレームワークは、異なるグループのメンバの特徴ベクトルをグループ間標準ドメインにマッピングし、それらをスコアリング関数にマップする。
マッピングは、同一人口群に属する個人の未処理特徴ベクトルから得られるスコア間の相対関係を保ち、グループ内の公平性を保証する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、グループ間およびグループ内公平性を2つの正規化に基づく手法と比較する。
関連論文リスト
- A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Within-group fairness: A guidance for more sound between-group fairness [1.675857332621569]
我々は、いわゆる「内集団公正」という新しいフェアネスの概念を導入する。
グループ内公平度とグループ間公正度を同時に制御する学習アルゴリズムを開発した。
数値解析により,提案した学習アルゴリズムは,グループ間の公正さだけでなく,精度を犠牲にすることなくグループ内公正性を向上することが示された。
論文 参考訳(メタデータ) (2023-01-20T00:39:19Z) - Fair Labeled Clustering [28.297893914525517]
クラスタリングのダウンストリーム適用と,そのような設定に対してグループフェアネスをどのように確保するかを検討する。
このような問題に対するアルゴリズムを提供し、グループフェアクラスタリングにおけるNPハードのアルゴリズムとは対照的に、効率的な解が可能であることを示す。
また、距離空間における中心位置に関係なく、意思決定者が自由にクラスタにラベルを割り当てることができるような、モチベーションのよい代替設定についても検討する。
論文 参考訳(メタデータ) (2022-05-28T07:07:12Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fair-Capacitated Clustering [5.127121704630949]
我々は、データを類似インスタンスのクラスタに分割する公平なクラスタリング問題を導入する。
本研究では,階層的クラスタリングとパーティショニングに基づくクラスタリングという2つのアプローチを提案する。
4つの教育データセットに関する実験では、公平性とカーディナリティの両面でバランスの取れたクラスタを提供するアプローチが示されています。
論文 参考訳(メタデータ) (2021-04-25T09:39:39Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。