論文の概要: Exploring Rawlsian Fairness for K-Means Clustering
- arxiv url: http://arxiv.org/abs/2205.02052v1
- Date: Wed, 4 May 2022 13:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 18:27:10.181772
- Title: Exploring Rawlsian Fairness for K-Means Clustering
- Title(参考訳): K平均クラスタリングのためのRawlsian Fairnessの探索
- Authors: Stanley Simoes, Deepak P, Muiris MacCarthaigh
- Abstract要約: 本研究は、John Rawls氏の公正性に関する考えを、既存の教師なし機械学習アルゴリズムに取り入れることを検討する。
私たちの知る限りでは、クラスタリングでRawlsianのアイデアを使った最初の作品です。
- 参考スコア(独自算出の注目度): 3.420467786581458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We conduct an exploratory study that looks at incorporating John Rawls' ideas
on fairness into existing unsupervised machine learning algorithms. Our focus
is on the task of clustering, specifically the k-means clustering algorithm. To
the best of our knowledge, this is the first work that uses Rawlsian ideas in
clustering. Towards this, we attempt to develop a postprocessing technique
i.e., one that operates on the cluster assignment generated by the standard
k-means clustering algorithm. Our technique perturbs this assignment over a
number of iterations to make it fairer according to Rawls' difference principle
while minimally affecting the overall utility. As the first step, we consider
two simple perturbation operators -- $\mathbf{R_1}$ and $\mathbf{R_2}$ -- that
reassign examples in a given cluster assignment to new clusters; $\mathbf{R_1}$
assigning a single example to a new cluster, and $\mathbf{R_2}$ a pair of
examples to new clusters. Our experiments on a sample of the Adult dataset
demonstrate that both operators make meaningful perturbations in the cluster
assignment towards incorporating Rawls' difference principle, with
$\mathbf{R_2}$ being more efficient than $\mathbf{R_1}$ in terms of the number
of iterations. However, we observe that there is still a need to design
operators that make significantly better perturbations. Nevertheless, both
operators provide good baselines for designing and comparing any future
operator, and we hope our findings would aid future work in this direction.
- Abstract(参考訳): 我々は、John Rawls氏の公正性に関する考えを既存の教師なし機械学習アルゴリズムに取り入れる探索的研究を行う。
我々はクラスタリングの課題、特にk-meansクラスタリングアルゴリズムに焦点を当てている。
私たちの知る限りでは、クラスタリングでRawlsianのアイデアを使った最初の作品です。
そこで本研究では,標準的なk-meansクラスタリングアルゴリズムによって生成されたクラスタ割り当てで動作する,ポストプロセッシング手法の開発を試みる。
我々の手法は、Rawlsの差分原理に従ってより公平にするために、この割り当てを何度も繰り返す一方で、全体のユーティリティに最小限の影響を与える。
最初のステップとして、与えられたクラスタ割り当ての例を新しいクラスタに再割り当てする、$\mathbf{R_1}$と$\mathbf{R_2}$の2つの単純な摂動演算子、$\mathbf{R_1}$の1つの例を新しいクラスタに割り当てる$\mathbf{R_1}$、$\mathbf{R_2}$の2つの新しいクラスタにサンプルを割り当てる$\mathbf{R_2}$を考える。
成人データセットのサンプル実験では,Rawlsの差分原理を取り入れたクラスタ割り当てにおいて,両オペレータが有意義な摂動を行い,反復回数の点で$\mathbf{R_2}$よりも効率がよいことを示した。
しかし,摂動を著しく改善する演算子の設計は依然として必要である。
それでも、どちらのオペレータも将来のオペレータの設計と比較に優れたベースラインを提供しています。
関連論文リスト
- Fair Minimum Representation Clustering via Integer Programming [0.6906005491572401]
クラスタリングは、データをクラスタの集合に分割することを目的とした教師なしの学習タスクである。
本稿では,各群が最小表現レベルを持つ必要があるという制約を伴って,k平均とkメダニアンのクラスタリング問題を考察する。
フェアネス制約を直接組み込んだ,MiniReLと呼ばれる交代最小化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-04T00:13:40Z) - Are Easy Data Easy (for K-Means) [0.0]
本稿では、$k$-meansアルゴリズムの様々なブランドによって、適切に分離されたクラスタを復元する能力について検討する。
シード選択時に繰り返しサブサンプリングによって$k$-means++のバリエーションが提案される。
論文 参考訳(メタデータ) (2023-08-02T09:40:19Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Fair Minimum Representation Clustering [0.0]
クラスタリングは、データをクラスタの集合に分割することを目的とした教師なしの学習タスクである。
一般的な$k$-meansアルゴリズムであるロイドのアルゴリズムが不公平な結果をもたらすことを示す。
フェアネス制約を直接組み込む、ミニReLと呼ばれるロイドのアルゴリズムの変種を示す。
論文 参考訳(メタデータ) (2023-02-06T23:16:38Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Collaborative Learning and Personalization in Multi-Agent Stochastic
Linear Bandits [24.293155063082438]
エージェント(ユーザ)が似ているが、すべて同一ではないような、N$エージェントの不均一な線形帯域幅フレームワークにおける後悔を最小限に抑える問題を考える。
任意のエージェントに対して、後悔のスケールが$mathcalO(sqrtT/N)$、エージェントが十分に分離されたクラスタにある場合、あるいはクラスタが$mathcalO(Tfrac12 + varepsilon/(N)frac12 -varepsilon)$であることを示す。
論文 参考訳(メタデータ) (2021-06-15T00:45:55Z) - Fuzzy Clustering with Similarity Queries [56.96625809888241]
ファジィ(fuzzy, soft objective)は、よく知られた$k$-means問題の一般化である。
クエリを少なくすることで、問題の解決が容易になる。
論文 参考訳(メタデータ) (2021-06-04T02:32:26Z) - Unsupervised Visual Representation Learning by Online Constrained
K-Means [44.38989920488318]
クラスタ識別は、教師なし表現学習の効果的な前提課題である。
オンラインtextbfConstrained textbfK-mtextbfeans (textbfCoKe) を用いたクラスタリングに基づく新しいプリテキストタスクを提案する。
当社のオンライン割当て方式は,グローバルな最適化に近づくための理論的保証を持っている。
論文 参考訳(メタデータ) (2021-05-24T20:38:32Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。