論文の概要: Fair clustering via equitable group representations
- arxiv url: http://arxiv.org/abs/2006.11009v2
- Date: Wed, 27 Jan 2021 23:38:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:25:17.863848
- Title: Fair clustering via equitable group representations
- Title(参考訳): 等式群表現による公正クラスタリング
- Authors: Mohsen Abbasi, Aditya Bhaskara, Suresh Venkatasubramanian
- Abstract要約: ほとんどのクラスタリング問題における中核的な原則は、クラスタセンタが表すクラスタを代表すべきである、ということです。
このようなクラスタリングが公平であるためには、センターは異なるグループを同じように「表現」する必要がある。
この概念は、人口統計学的パーティや平等な機会といった概念の直接的な類似によって、分類における公平性の概念の発達と自然に類似していることが示される。
- 参考スコア(独自算出の注目度): 17.688888999324842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What does it mean for a clustering to be fair? One popular approach seeks to
ensure that each cluster contains groups in (roughly) the same proportion in
which they exist in the population. The normative principle at play is balance:
any cluster might act as a representative of the data, and thus should reflect
its diversity.
But clustering also captures a different form of representativeness. A core
principle in most clustering problems is that a cluster center should be
representative of the cluster it represents, by being "close" to the points
associated with it. This is so that we can effectively replace the points by
their cluster centers without significant loss in fidelity, and indeed is a
common "use case" for clustering. For such a clustering to be fair, the centers
should "represent" different groups equally well. We call such a clustering a
group-representative clustering.
In this paper, we study the structure and computation of group-representative
clusterings. We show that this notion naturally parallels the development of
fairness notions in classification, with direct analogs of ideas like
demographic parity and equal opportunity. We demonstrate how these notions are
distinct from and cannot be captured by balance-based notions of fairness. We
present approximation algorithms for group representative $k$-median clustering
and couple this with an empirical evaluation on various real-world data sets.
- Abstract(参考訳): クラスタリングが公平であることの意味は何でしょうか?
1つの一般的なアプローチは、各クラスタが(大まかに)人口に存在する同じ割合の群を含むことを保証することである。
どんなクラスタもデータの代表として振る舞うため、その多様性を反映すべきである。
しかしクラスタリングは、異なる形式の代表性も捉えている。
ほとんどのクラスタリング問題において核となる原則は、クラスタセンタは、それに関連するポイントに「密接」することで、それが表現するクラスタを代表すべきである。
これは、ポイントをクラスタ中心で効果的に置き換えることができるため、忠実度を著しく損なうことなく、実際にクラスタ化のための一般的な"ユースケース"である。
このようなクラスタリングを公平にするために、センターは異なるグループを均等に"表現する"必要がある。
このようなクラスタリングをグループ表現型クラスタリングと呼びます。
本稿では,グループ表現型クラスタリングの構造と計算について述べる。
この概念は, 分類における公平性概念の発達と, 人口統計学的パリティや等機会といった概念の直接的類似性とを自然に両立することを示す。
これらの概念がどのように区別され、バランスに基づく公平性の概念では捉えられないかを実証する。
我々は,グループ代表者$k$-medianクラスタリングのための近似アルゴリズムを示し,実世界の様々なデータセットに対する経験的評価と組み合わせる。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - ABCDE: Application-Based Cluster Diff Evals [49.1574468325115]
それは実用性を目指しており、アイテムはアプリケーション固有の重要な値を持つことができ、クラスタリングがどちらが優れているかを判断するときに人間の判断を使うのは粗悪であり、アイテムの任意のスライスのためのメトリクスを報告できる。
クラスタリング品質の差分を測定するアプローチは、高価な地平を前もって構築し、それに関して各クラスタリングを評価する代わりに、ABCDEはクラスタリング間の実際の差分に基づいて、判定のための質問をサンプリングする。
論文 参考訳(メタデータ) (2024-07-31T08:29:35Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Cluster-level Group Representativity Fairness in $k$-means Clustering [3.420467786581458]
クラスタリングアルゴリズムは、異なるグループが異なるクラスタ内で不利になるようにクラスタを生成することができる。
我々は,古典的アルゴリズムに先駆けて,セントロイドクラスタリングパラダイムに基づくクラスタリングアルゴリズムを開発した。
本手法はクラスタレベルの表現性フェアネスを,クラスタのコヒーレンスに低い影響で向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-12-29T22:02:28Z) - Deep Clustering With Consensus Representations [10.058084837348366]
異種クラスタリングにおけるコンセンサス表現の学習という概念を導入し,コンセンサスクラスタリングにアプローチする新しい概念を提案する。
複数の異種クラスタリングアルゴリズムの表現とクラスタリング結果を共同で改善する,最初のディープクラスタリング手法であるDECCSを提案する。
論文 参考訳(メタデータ) (2022-10-13T14:40:48Z) - Socially Fair Center-based and Linear Subspace Clustering [8.355270405285909]
センターベースのクラスタリングと線形サブスペースクラスタリングは、現実世界のデータを小さなクラスタに分割する一般的なテクニックである。
異なる敏感なグループに対する1点当たりのクラスタリングコストは、公平性に関連する害をもたらす可能性がある。
本稿では,社会的に公平なセンタベースのクラスタリングと線形サブスペースクラスタリングを解決するための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-22T07:10:17Z) - Fair Labeled Clustering [28.297893914525517]
クラスタリングのダウンストリーム適用と,そのような設定に対してグループフェアネスをどのように確保するかを検討する。
このような問題に対するアルゴリズムを提供し、グループフェアクラスタリングにおけるNPハードのアルゴリズムとは対照的に、効率的な解が可能であることを示す。
また、距離空間における中心位置に関係なく、意思決定者が自由にクラスタにラベルを割り当てることができるような、モチベーションのよい代替設定についても検討する。
論文 参考訳(メタデータ) (2022-05-28T07:07:12Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。