論文の概要: Distributional Individual Fairness in Clustering
- arxiv url: http://arxiv.org/abs/2006.12589v1
- Date: Mon, 22 Jun 2020 20:02:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:47:33.852022
- Title: Distributional Individual Fairness in Clustering
- Title(参考訳): クラスタリングにおける分布的個性
- Authors: Nihesh Anderson, Suman K. Bera, Syamantak Das, Yang Liu
- Abstract要約: 本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
- 参考スコア(独自算出の注目度): 7.303841123034983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we initiate the study of fair clustering that ensures
distributional similarity among similar individuals. In response to improving
fairness in machine learning, recent papers have investigated fairness in
clustering algorithms and have focused on the paradigm of statistical
parity/group fairness. These efforts attempt to minimize bias against some
protected groups in the population. However, to the best of our knowledge, the
alternative viewpoint of individual fairness, introduced by Dwork et al. (ITCS
2012) in the context of classification, has not been considered for clustering
so far. Similar to Dwork et al., we adopt the individual fairness notion which
mandates that similar individuals should be treated similarly for clustering
problems. We use the notion of $f$-divergence as a measure of statistical
similarity that significantly generalizes the ones used by Dwork et al. We
introduce a framework for assigning individuals, embedded in a metric space, to
probability distributions over a bounded number of cluster centers. The
objective is to ensure (a) low cost of clustering in expectation and (b)
individuals that are close to each other in a given fairness space are mapped
to statistically similar distributions.
We provide an algorithm for clustering with $p$-norm objective ($k$-center,
$k$-means are special cases) and individual fairness constraints with provable
approximation guarantee. We extend this framework to include both group
fairness and individual fairness inside the protected groups. Finally, we
observe conditions under which individual fairness implies group fairness. We
present extensive experimental evidence that justifies the effectiveness of our
approach.
- Abstract(参考訳): 本稿では,同種個体間の分布的類似性を保証するフェアクラスタリングの研究を開始する。
近年,機械学習の公正性向上に対応するため,クラスタリングアルゴリズムの公正性を調査し,統計的パリティ/グループフェアネスのパラダイムに着目している。
これらの取り組みは、一部の保護された集団に対するバイアスを最小化しようとするものである。
しかしながら、我々の知る限りでは、分類の文脈においてdworkら (itcs 2012) が導入した個々人の公平性という別の視点は、これまでクラスタリングには考慮されていない。
Dworkなどと同様、類似した個人をクラスタリング問題に対して同様に扱うことを義務付ける個別の公平性の概念を採用する。
統計的類似性の尺度として$f$-divergenceという概念を使い、Dworkらによって使われるものを著しく一般化する。
本稿では,計量空間に埋め込まれた個人を,クラスタ中心の有界数上の確率分布に割り当てるフレームワークを提案する。
目的は確実にすること
a) 期待と予測におけるクラスタリングの低コスト
(b)与えられたフェアネス空間において互いに近い個人は、統計的に類似した分布にマッピングされる。
我々は,p$-norm目標(k$-center,$k$-means is special case)と,証明可能な近似保証を伴う個々の公正性制約を用いたクラスタリングアルゴリズムを提供する。
この枠組みを、保護されたグループ内のグループフェアネスと個人フェアネスの両方を含むように拡張する。
最後に,個々の公平性が集団公平を暗示する条件を観察する。
我々は,このアプローチの有効性を正当化する広範な実験的な証拠を示す。
関連論文リスト
- A Universal Unbiased Method for Classification from Aggregate
Observations [115.20235020903992]
本稿では,任意の損失に対する分類リスクを非バイアスで推定するCFAOの普遍的手法を提案する。
提案手法は,非バイアスリスク推定器によるリスクの整合性を保証するだけでなく,任意の損失に対応できる。
論文 参考訳(メタデータ) (2023-06-20T07:22:01Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Improved Approximation for Fair Correlation Clustering [4.629694186457133]
相関クラスタリングは教師なし機械学習におけるユビキタスパラダイムであり、不公平に対処することが大きな課題である。
そこで本研究では,データポイントが異なる保護グループに属しているフェア相関クラスタリングについて検討する。
本稿は,Ahmadi et al.とAhmadian et alの以前の研究の質保証を著しく一般化し,改善する。
論文 参考訳(メタデータ) (2022-06-09T03:07:57Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Fair Clustering Under a Bounded Cost [33.50262066253557]
クラスタリングは、データセットをメトリクス空間内の近くのポイントで構成されるクラスタに分割する、基本的な教師なしの学習問題である。
最近の変種であるフェアクラスタリング(英語版)は、各点とその群のメンバーシップを表す色を関連付け、各色が群フェアネスを満たすために各クラスタに等しい表現(およそ)を持つことを要求する。
我々は,集団の実用的目的と集団の平等的目的,および集団の平等的目的を一般化するグループ・レキシミン的目的の2つの公正性を考察する。
論文 参考訳(メタデータ) (2021-06-14T08:47:36Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - A Pairwise Fair and Community-preserving Approach to k-Center Clustering [34.386585230600716]
クラスタリングは多くのアプリケーションで機械学習の基本的な問題である。
クラスタリング設定,ペアワイズフェアネス,コミュニティ保存の2つの新しいフェアネスを定義した。
論文 参考訳(メタデータ) (2020-07-14T22:32:27Z) - A Notion of Individual Fairness for Clustering [22.288902523866867]
フェア機械学習における一般的な区別は、特にフェア分類において、グループフェアネスと個人フェアネスの区別である。
本稿では,クラスタリングにおける個別の公正性という自然な概念を提案する。この概念は,クラスタ内の各点が,他のクラスタの点よりも平均的に,自身のクラスタ内の点に近いことを問うものである。
論文 参考訳(メタデータ) (2020-06-08T21:41:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。