論文の概要: Fair Hierarchical Clustering
- arxiv url: http://arxiv.org/abs/2006.10221v2
- Date: Fri, 19 Jun 2020 02:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:23:48.134849
- Title: Fair Hierarchical Clustering
- Title(参考訳): 公正な階層的クラスタリング
- Authors: Sara Ahmadian, Alessandro Epasto, Marina Knittel, Ravi Kumar, Mohammad
Mahdian, Benjamin Moseley, Philip Pham, Sergei Vassilvitskii, Yuyan Wang
- Abstract要約: 従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
- 参考スコア(独自算出の注目度): 92.03780518164108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning has become more prevalent, researchers have begun to
recognize the necessity of ensuring machine learning systems are fair.
Recently, there has been an interest in defining a notion of fairness that
mitigates over-representation in traditional clustering.
In this paper we extend this notion to hierarchical clustering, where the
goal is to recursively partition the data to optimize a specific objective. For
various natural objectives, we obtain simple, efficient algorithms to find a
provably good fair hierarchical clustering. Empirically, we show that our
algorithms can find a fair hierarchical clustering, with only a negligible loss
in the objective.
- Abstract(参考訳): 機械学習が普及するにつれて、研究者は機械学習システムが公平であることを保証する必要性を認識し始めた。
近年、従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義することに関心が寄せられている。
本稿では、この概念を階層的クラスタリングに拡張し、特定の目的を最適化するために再帰的にデータを分割する。
様々な自然目的に対して,適切な階層的クラスタリングを求めるための単純で効率的なアルゴリズムを求める。
経験的に、我々のアルゴリズムは、目的に無視できる損失しかなく、公平な階層的なクラスタリングを見つけることができる。
関連論文リスト
- Fair Clustering: Critique, Caveats, and Future Directions [11.077625489695922]
クラスタリングは、機械学習とオペレーション研究における根本的な問題である。
公正なクラスタリングを批判的に捉え、無視された問題の集合を特定します。
論文 参考訳(メタデータ) (2024-06-22T23:34:53Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - Fair Clustering via Hierarchical Fair-Dirichlet Process [8.85031165304586]
クラスタリングにおける公正性の一般的な概念は、クラスタを均衡させ、すなわち、保護された属性の各レベルは、各クラスタにほぼ等しく表現されなければならない。
本稿では,適切な目的関数の最適化にほぼ専念した既存の文献を補完する,公正クラスタリングのモデルに基づく新しい定式化を提案する。
論文 参考訳(メタデータ) (2023-05-27T19:16:55Z) - Fair Clustering Under a Bounded Cost [33.50262066253557]
クラスタリングは、データセットをメトリクス空間内の近くのポイントで構成されるクラスタに分割する、基本的な教師なしの学習問題である。
最近の変種であるフェアクラスタリング(英語版)は、各点とその群のメンバーシップを表す色を関連付け、各色が群フェアネスを満たすために各クラスタに等しい表現(およそ)を持つことを要求する。
我々は,集団の実用的目的と集団の平等的目的,および集団の平等的目的を一般化するグループ・レキシミン的目的の2つの公正性を考察する。
論文 参考訳(メタデータ) (2021-06-14T08:47:36Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Whither Fair Clustering? [3.4925763160992402]
我々は、公正なクラスタリングにおける最先端の状況は、展望において非常に画期的であると論じている。
我々は、目標とする規範的原則を広げ、目標を完全に達成できない欠点を特徴づけ、下流プロセスの知識を利用することで、公正クラスタリング研究における研究範囲を大きく広げることができると論じている。
論文 参考訳(メタデータ) (2020-07-08T19:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。