論文の概要: A Pairwise Fair and Community-preserving Approach to k-Center Clustering
- arxiv url: http://arxiv.org/abs/2007.07384v1
- Date: Tue, 14 Jul 2020 22:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 14:25:28.685231
- Title: A Pairwise Fair and Community-preserving Approach to k-Center Clustering
- Title(参考訳): k-centerクラスタリングに対するペアワイズフェアとコミュニティ保存アプローチ
- Authors: Brian Brubach, Darshan Chakrabarti, John P. Dickerson, Samir Khuller,
Aravind Srinivasan, Leonidas Tsepenekas
- Abstract要約: クラスタリングは多くのアプリケーションで機械学習の基本的な問題である。
クラスタリング設定,ペアワイズフェアネス,コミュニティ保存の2つの新しいフェアネスを定義した。
- 参考スコア(独自算出の注目度): 34.386585230600716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering is a foundational problem in machine learning with numerous
applications. As machine learning increases in ubiquity as a backend for
automated systems, concerns about fairness arise. Much of the current
literature on fairness deals with discrimination against protected classes in
supervised learning (group fairness). We define a different notion of fair
clustering wherein the probability that two points (or a community of points)
become separated is bounded by an increasing function of their pairwise
distance (or community diameter). We capture the situation where data points
represent people who gain some benefit from being clustered together.
Unfairness arises when certain points are deterministically separated, either
arbitrarily or by someone who intends to harm them as in the case of
gerrymandering election districts. In response, we formally define two new
types of fairness in the clustering setting, pairwise fairness and community
preservation. To explore the practicality of our fairness goals, we devise an
approach for extending existing $k$-center algorithms to satisfy these fairness
constraints. Analysis of this approach proves that reasonable approximations
can be achieved while maintaining fairness. In experiments, we compare the
effectiveness of our approach to classical $k$-center algorithms/heuristics and
explore the tradeoff between optimal clustering and fairness.
- Abstract(参考訳): クラスタリングは多くのアプリケーションで機械学習の基本的な問題である。
機械学習が自動化システムのバックエンドとして普及するにつれて、公平性に関する懸念が生まれます。
フェアネスに関する現在の文献の多くは、教師付き学習(グループフェアネス)における保護されたクラスに対する差別を扱う。
2つの点(あるいは1つの点のコミュニティ)が分離される確率が、ペアワイズ距離(あるいはコミュニティの直径)の増大関数によって境界づけられるという、フェアクラスタリングの異なる概念を定義する。
データポイントが一括してクラスタ化されるメリットを享受する人々を表す状況を取り除きます。
不公平は、特定のポイントが任意に、あるいは選挙地区のように、彼らを傷つけようとする誰かによって、決定論的に分離されたときに生じる。
そこで我々は,クラスタリング設定において,ペアワイズフェアネスとコミュニティ保存という2つの新たなフェアネスを正式に定義する。
公平性目標の実用性を探るために、我々は、これらの公平性制約を満たすために既存の$k$中心アルゴリズムを拡張するアプローチを考案する。
このアプローチの解析は、公平性を維持しながら合理的な近似が達成できることを証明している。
実験では、従来の$k$-centerアルゴリズム/ヒューリスティックスに対するアプローチの有効性を比較し、最適なクラスタリングと公正性のトレードオフを探る。
関連論文リスト
- Proportionally Representative Clustering [17.5359577544947]
本稿では,クラスタリング問題を対象とした新しい公理比例代表フェアネス(PRF)を提案する。
我々のフェアネスの概念は、既存のフェアクラスタリングアルゴリズムで満たされていない。
制約のない設定に対する我々のアルゴリズムは、よく研究されたプロポーショナルフェアネス(PF)の公理に対する最初の既知時間近似アルゴリズムでもある。
論文 参考訳(メタデータ) (2023-04-27T02:01:24Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Correlation Clustering in Forests [8.810926150873991]
クラスタリングは、各クラスタが入力集合全体と同じ感度属性のマニフェストの分布を持つ場合、公平であると言われている。
これは、クラスタ化対象のオブジェクトが過度に、あるいは過度に表現すべきでないセンシティブな属性を持つ様々なアプリケーションによって動機付けられている。
我々は,このフェアネスの形式が抽出可能な機密属性の分布を特徴付けることができる制限付きグラフクラスを考察する。
論文 参考訳(メタデータ) (2023-02-22T11:27:06Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Clustering Under a Bounded Cost [33.50262066253557]
クラスタリングは、データセットをメトリクス空間内の近くのポイントで構成されるクラスタに分割する、基本的な教師なしの学習問題である。
最近の変種であるフェアクラスタリング(英語版)は、各点とその群のメンバーシップを表す色を関連付け、各色が群フェアネスを満たすために各クラスタに等しい表現(およそ)を持つことを要求する。
我々は,集団の実用的目的と集団の平等的目的,および集団の平等的目的を一般化するグループ・レキシミン的目的の2つの公正性を考察する。
論文 参考訳(メタデータ) (2021-06-14T08:47:36Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z) - A Notion of Individual Fairness for Clustering [22.288902523866867]
フェア機械学習における一般的な区別は、特にフェア分類において、グループフェアネスと個人フェアネスの区別である。
本稿では,クラスタリングにおける個別の公正性という自然な概念を提案する。この概念は,クラスタ内の各点が,他のクラスタの点よりも平均的に,自身のクラスタ内の点に近いことを問うものである。
論文 参考訳(メタデータ) (2020-06-08T21:41:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。