論文の概要: Fairness Through Matching
- arxiv url: http://arxiv.org/abs/2501.02793v1
- Date: Mon, 06 Jan 2025 06:27:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:10:05.546231
- Title: Fairness Through Matching
- Title(参考訳): マッチングによるフェアネス
- Authors: Kunwoong Kim, Insung Kong, Jongjin Lee, Minwoo Chae, Sangchul Park, Yongdai Kim,
- Abstract要約: グループフェアネスは、与えられたセンシティブな属性によって特徴づけられる異なる保護されたグループが全体として同じ結果を得る必要がある。
本研究では,既存のグループフェアネス尺度の暗黙的特性を明らかにし,グループフェアモデルがどのように振る舞うかを考察する。
我々は、グループフェアモデルを学ぶために、この暗黙的特性に基づく新しいグループフェア制約を開発する。
- 参考スコア(独自算出の注目度): 4.3901801192696555
- License:
- Abstract: Group fairness requires that different protected groups, characterized by a given sensitive attribute, receive equal outcomes overall. Typically, the level of group fairness is measured by the statistical gap between predictions from different protected groups. In this study, we reveal an implicit property of existing group fairness measures, which provides an insight into how the group-fair models behave. Then, we develop a new group-fair constraint based on this implicit property to learn group-fair models. To do so, we first introduce a notable theoretical observation: every group-fair model has an implicitly corresponding transport map between the input spaces of each protected group. Based on this observation, we introduce a new group fairness measure termed Matched Demographic Parity (MDP), which quantifies the averaged gap between predictions of two individuals (from different protected groups) matched by a given transport map. Then, we prove that any transport map can be used in MDP to learn group-fair models, and develop a novel algorithm called Fairness Through Matching (FTM), which learns a group-fair model using MDP constraint with an user-specified transport map. We specifically propose two favorable types of transport maps for MDP, based on the optimal transport theory, and discuss their advantages. Experiments reveal that FTM successfully trains group-fair models with certain desirable properties by choosing the transport map accordingly.
- Abstract(参考訳): グループフェアネスは、与えられたセンシティブな属性によって特徴づけられる異なる保護されたグループが全体として同じ結果を得る必要がある。
通常、グループフェアネスのレベルは、異なる保護されたグループの予測の間の統計的ギャップによって測定される。
本研究では,既存のグループフェアネス尺度の暗黙的特性を明らかにし,グループフェアモデルがどのように振る舞うかを考察する。
そこで我々は,グループフェアモデルを学ぶために,この暗黙的特性に基づく新しいグループフェア制約を開発する。
グループフェアモデルには各保護されたグループの入力空間間の暗黙的に対応する輸送マップがある。
本研究は,2つの個人(異なる保護グループから)の予測間の平均的ギャップを,所定の移動マップによって推定する,MDP(Matched Demographic Parity)と呼ばれるグループフェアネス尺度を提案する。
そこで, グループフェアモデル(FTM)を学習するために, MDP内の任意のトランスポートマップを用いて, グループフェアモデルを学習し, グループフェアモデルとユーザ指定トランスポートマップを併用してグループフェアモデルを学習するFTM (Fairness Through Matching) アルゴリズムを開発した。
具体的には, 最適輸送理論に基づくMDPのための2種類の輸送地図を提案し, その利点について論じる。
実験の結果、FTMは輸送マップを選択することで、特定の望ましい特性を持つグループフェアモデルの訓練に成功していることがわかった。
関連論文リスト
- A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Group-blind optimal transport to group parity and its constrained variants [6.70948761466883]
我々は、ソースデータ中の両方のグループの特徴分布を整列する単一のグループ盲投影マップを設計する。
情報源データは人口の偏りのない表現であると仮定する。
合成データと実データについて数値的な結果を示す。
論文 参考訳(メタデータ) (2023-10-17T17:14:07Z) - FairDP: Certified Fairness with Differential Privacy [55.51579601325759]
本稿では,FairDPについて紹介する。FairDPは,トレーニングされたモデルの判断に対して,グループフェアネスの認定を提供するために設計された,新しいトレーニングメカニズムである。
FairDPの鍵となる考え方は、独立した個別グループのためのモデルをトレーニングし、データプライバシ保護のための各グループの勾配にノイズを加え、グループモデルの知識を統合して、下流タスクにおけるプライバシ、ユーティリティ、公正性のバランスをとるモデルを構築することである。
論文 参考訳(メタデータ) (2023-05-25T21:07:20Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Equi-Tuning: Group Equivariant Fine-Tuning of Pretrained Models [56.88106830869487]
我々は、(潜在的に非同変な)事前訓練されたモデルを群同変モデルに変換する新しい微調整法である、同調を導入する。
本稿では、画像分類、合成言語における一般化、自然言語生成における公平性という3つの異なるタスクに対する等価チューニングの応用について述べる。
論文 参考訳(メタデータ) (2022-10-13T08:45:23Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。