論文の概要: Group-blind optimal transport to group parity and its constrained variants
- arxiv url: http://arxiv.org/abs/2310.11407v2
- Date: Fri, 08 Nov 2024 14:21:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:52:11.880621
- Title: Group-blind optimal transport to group parity and its constrained variants
- Title(参考訳): 群パリティへの群盲最適輸送とその制約付き変種
- Authors: Quan Zhou, Jakub Marecek,
- Abstract要約: 我々は、ソースデータ中の両方のグループの特徴分布を整列する単一のグループ盲投影マップを設計する。
情報源データは人口の偏りのない表現であると仮定する。
合成データと実データについて数値的な結果を示す。
- 参考スコア(独自算出の注目度): 6.70948761466883
- License:
- Abstract: Fairness holds a pivotal role in the realm of machine learning, particularly when it comes to addressing groups categorised by protected attributes, e.g., gender, race. Prevailing algorithms in fair learning predominantly hinge on accessibility or estimations of these protected attributes, at least in the training process. We design a single group-blind projection map that aligns the feature distributions of both groups in the source data, achieving (demographic) group parity, without requiring values of the protected attribute for individual samples in the computation of the map, as well as its use. Instead, our approach utilises the feature distributions of the privileged and unprivileged groups in a boarder population and the essential assumption that the source data are unbiased representation of the population. We present numerical results on synthetic data and real data.
- Abstract(参考訳): フェアネスは機械学習の領域において、特に保護された属性、例えば性別、人種によって分類されたグループに対処する上で、重要な役割を担っている。
フェアラーニングにおける一般的なアルゴリズムは、少なくともトレーニングプロセスにおいて、これらの保護された属性のアクセシビリティや推定を主にヒンジする。
本手法では,各サンプルに対する保護属性の値や,その使用法を必要とせずに,ソースデータ中の両方のグループの特徴分布を整列し,グループパリティを達成できる単一グループブラインドプロジェクションマップを設計する。
提案手法は, 搭乗者集団における特権的・特権的グループの特徴分布と, 情報源データが人口の偏りのない表現であることを前提とした。
合成データと実データについて数値的な結果を示す。
関連論文リスト
- Dataset Representativeness and Downstream Task Fairness [24.570493924073524]
そのデータセット上で訓練された分類器のデータセット代表性とグループフェアネスとの間に自然な緊張関係があることを実証する。
また、過度にサンプル化されていない群は、それらの群に偏りを示す分類器を生じる可能性があることも見出した。
論文 参考訳(メタデータ) (2024-06-28T18:11:16Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Affinity Clustering Framework for Data Debiasing Using Pairwise
Distribution Discrepancy [10.184056098238765]
グループ不均衡(グループ不均衡)は、データセットにおける表現バイアスの主要な原因である。
本稿では、アフィニティクラスタリングを利用して、ターゲットデータセットの非保護および保護されたグループの表現のバランスをとるデータ拡張手法であるMASCを提案する。
論文 参考訳(メタデータ) (2023-06-02T17:18:20Z) - Leveraging Structure for Improved Classification of Grouped Biased Data [8.121462458089143]
データポイントが自然にグループ化されるアプリケーションに対する半教師付きバイナリ分類を検討する。
我々は、この構造を明示的に活用し、最適、グループ対応、確率出力の分類器を学習する半教師付きアルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-12-07T15:18:21Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。