論文の概要: A Notion of Individual Fairness for Clustering
- arxiv url: http://arxiv.org/abs/2006.04960v1
- Date: Mon, 8 Jun 2020 21:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:08:17.816580
- Title: A Notion of Individual Fairness for Clustering
- Title(参考訳): クラスタリングのための個別フェアネスの表記法
- Authors: Matth\"aus Kleindessner, Pranjal Awasthi, Jamie Morgenstern
- Abstract要約: フェア機械学習における一般的な区別は、特にフェア分類において、グループフェアネスと個人フェアネスの区別である。
本稿では,クラスタリングにおける個別の公正性という自然な概念を提案する。この概念は,クラスタ内の各点が,他のクラスタの点よりも平均的に,自身のクラスタ内の点に近いことを問うものである。
- 参考スコア(独自算出の注目度): 22.288902523866867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common distinction in fair machine learning, in particular in fair
classification, is between group fairness and individual fairness. In the
context of clustering, group fairness has been studied extensively in recent
years; however, individual fairness for clustering has hardly been explored. In
this paper, we propose a natural notion of individual fairness for clustering.
Our notion asks that every data point, on average, is closer to the points in
its own cluster than to the points in any other cluster. We study several
questions related to our proposed notion of individual fairness. On the
negative side, we show that deciding whether a given data set allows for such
an individually fair clustering in general is NP-hard. On the positive side,
for the special case of a data set lying on the real line, we propose an
efficient dynamic programming approach to find an individually fair clustering.
For general data sets, we investigate heuristics aimed at minimizing the number
of individual fairness violations and compare them to standard clustering
approaches on real data sets.
- Abstract(参考訳): フェア機械学習における一般的な区別は、特にフェア分類において、グループフェアネスと個人フェアネスの間にある。
クラスタリングの文脈では,群フェアネスは近年広く研究されているが,クラスタリングの個別フェアネスは研究されていない。
本稿では,クラスタリングにおける個人的公正性の自然な概念を提案する。
私たちの考えでは、すべてのデータポイントは、平均して、他のクラスタのポイントよりも、自身のクラスタのポイントに近いものです。
提案する個々人の公平性に関する質問について検討する。
負の面では、与えられたデータセットが一般にそのような個別に公平なクラスタリングを許すかどうかを決定することはNPハードであることを示す。
正の面では、実線上にあるデータセットの特別な場合に対して、個別に公正なクラスタリングを見つけるための効率的な動的プログラミング手法を提案する。
一般データセットに対しては,個々のフェアネス違反数を最小化することを目的としたヒューリスティックスを調査し,実際のデータセットにおける標準的なクラスタリング手法と比較する。
関連論文リスト
- ABCDE: Application-Based Cluster Diff Evals [49.1574468325115]
それは実用性を目指しており、アイテムはアプリケーション固有の重要な値を持つことができ、クラスタリングがどちらが優れているかを判断するときに人間の判断を使うのは粗悪であり、アイテムの任意のスライスのためのメトリクスを報告できる。
クラスタリング品質の差分を測定するアプローチは、高価な地平を前もって構築し、それに関して各クラスタリングを評価する代わりに、ABCDEはクラスタリング間の実際の差分に基づいて、判定のための質問をサンプリングする。
論文 参考訳(メタデータ) (2024-07-31T08:29:35Z) - Fair Labeled Clustering [28.297893914525517]
クラスタリングのダウンストリーム適用と,そのような設定に対してグループフェアネスをどのように確保するかを検討する。
このような問題に対するアルゴリズムを提供し、グループフェアクラスタリングにおけるNPハードのアルゴリズムとは対照的に、効率的な解が可能であることを示す。
また、距離空間における中心位置に関係なく、意思決定者が自由にクラスタにラベルを割り当てることができるような、モチベーションのよい代替設定についても検討する。
論文 参考訳(メタデータ) (2022-05-28T07:07:12Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Feature-based Individual Fairness in k-Clustering [14.847868952138795]
公平性の制約を確保しつつ一組の点をクラスタリングする問題を考察する。
我々は、必ずしもクラスタリングに使用されない特徴に基づいて、kクラスタリングにおける個別の公平性という新しい概念を導入する。
論文 参考訳(メタデータ) (2021-09-09T20:42:02Z) - Fair Clustering Under a Bounded Cost [33.50262066253557]
クラスタリングは、データセットをメトリクス空間内の近くのポイントで構成されるクラスタに分割する、基本的な教師なしの学習問題である。
最近の変種であるフェアクラスタリング(英語版)は、各点とその群のメンバーシップを表す色を関連付け、各色が群フェアネスを満たすために各クラスタに等しい表現(およそ)を持つことを要求する。
我々は,集団の実用的目的と集団の平等的目的,および集団の平等的目的を一般化するグループ・レキシミン的目的の2つの公正性を考察する。
論文 参考訳(メタデータ) (2021-06-14T08:47:36Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Protecting Individual Interests across Clusters: Spectral Clustering
with Guarantees [20.350342151402963]
我々は、各クラスタが各クラスタに接続された適切なメンバー数を含む必要があるグラフ $mathcalg$ をクラスタリングするための個別フェアネス基準を提案する。
与えられた表現グラフの下で公正なクラスタを見つけるためのスペクトルクラスタリングアルゴリズムを考案する。
論文 参考訳(メタデータ) (2021-05-08T15:03:25Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。