論文の概要: A Canonical Data Transformation for Achieving Inter- and Within-group Fairness
- arxiv url: http://arxiv.org/abs/2310.15097v2
- Date: Fri, 5 Jul 2024 19:58:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 03:18:28.522014
- Title: A Canonical Data Transformation for Achieving Inter- and Within-group Fairness
- Title(参考訳): グループ間およびグループ内フェアネスを達成するための標準データ変換
- Authors: Zachary McBride Lazri, Ivan Brugere, Xin Tian, Dana Dachman-Soled, Antigoni Polychroniadou, Danial Dervovic, Min Wu,
- Abstract要約: 同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
- 参考スコア(独自算出の注目度): 17.820200610132265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increases in the deployment of machine learning algorithms for applications that deal with sensitive data have brought attention to the issue of fairness in machine learning. Many works have been devoted to applications that require different demographic groups to be treated fairly. However, algorithms that aim to satisfy inter-group fairness (also called group fairness) may inadvertently treat individuals within the same demographic group unfairly. To address this issue, we introduce a formal definition of within-group fairness that maintains fairness among individuals from within the same group. We propose a pre-processing framework to meet both inter- and within-group fairness criteria with little compromise in accuracy. The framework maps the feature vectors of members from different groups to an inter-group-fair canonical domain before feeding them into a scoring function. The mapping is constructed to preserve the relative relationship between the scores obtained from the unprocessed feature vectors of individuals from the same demographic group, guaranteeing within-group fairness. We apply this framework to the COMPAS risk assessment and Law School datasets and compare its performance in achieving inter-group and within-group fairness to two regularization-based methods.
- Abstract(参考訳): 機密データを扱うアプリケーションに対する機械学習アルゴリズムの展開の増加は、機械学習の公平性の問題に注意を向けている。
多くの研究は、異なる人口集団を公平に扱うように要求するアプリケーションに注がれている。
しかし、グループ間の公平性(グループフェアネスとも呼ばれる)を満たすことを目的としたアルゴリズムは、同じ人口集団内の個人を不当に扱うことがある。
この問題に対処するため,同グループ内の個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
このフレームワークは、異なるグループのメンバーの特徴ベクトルをグループ間標準領域にマッピングし、それらをスコアリング関数に入力する。
マッピングは、同一人口群に属する個人の未処理特徴ベクトルから得られるスコア間の相対関係を保ち、グループ内の公平性を保証するために構成される。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、グループ間およびグループ内フェアネスの達成における性能を2つの正規化に基づく手法と比較する。
関連論文リスト
- A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Within-group fairness: A guidance for more sound between-group fairness [1.675857332621569]
我々は、いわゆる「内集団公正」という新しいフェアネスの概念を導入する。
グループ内公平度とグループ間公正度を同時に制御する学習アルゴリズムを開発した。
数値解析により,提案した学習アルゴリズムは,グループ間の公正さだけでなく,精度を犠牲にすることなくグループ内公正性を向上することが示された。
論文 参考訳(メタデータ) (2023-01-20T00:39:19Z) - Fair Labeled Clustering [28.297893914525517]
クラスタリングのダウンストリーム適用と,そのような設定に対してグループフェアネスをどのように確保するかを検討する。
このような問題に対するアルゴリズムを提供し、グループフェアクラスタリングにおけるNPハードのアルゴリズムとは対照的に、効率的な解が可能であることを示す。
また、距離空間における中心位置に関係なく、意思決定者が自由にクラスタにラベルを割り当てることができるような、モチベーションのよい代替設定についても検討する。
論文 参考訳(メタデータ) (2022-05-28T07:07:12Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fair-Capacitated Clustering [5.127121704630949]
我々は、データを類似インスタンスのクラスタに分割する公平なクラスタリング問題を導入する。
本研究では,階層的クラスタリングとパーティショニングに基づくクラスタリングという2つのアプローチを提案する。
4つの教育データセットに関する実験では、公平性とカーディナリティの両面でバランスの取れたクラスタを提供するアプローチが示されています。
論文 参考訳(メタデータ) (2021-04-25T09:39:39Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。