論文の概要: Protecting Individual Interests across Clusters: Spectral Clustering
with Guarantees
- arxiv url: http://arxiv.org/abs/2105.03714v1
- Date: Sat, 8 May 2021 15:03:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:08:33.384545
- Title: Protecting Individual Interests across Clusters: Spectral Clustering
with Guarantees
- Title(参考訳): クラスタ間の個人の関心を保護する - 保証付きスペクトルクラスタリング
- Authors: Shubham Gupta and Ambedkar Dukkipati
- Abstract要約: 我々は、各クラスタが各クラスタに接続された適切なメンバー数を含む必要があるグラフ $mathcalg$ をクラスタリングするための個別フェアネス基準を提案する。
与えられた表現グラフの下で公正なクラスタを見つけるためのスペクトルクラスタリングアルゴリズムを考案する。
- 参考スコア(独自算出の注目度): 20.350342151402963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Studies related to fairness in machine learning have recently gained traction
due to its ever-expanding role in high-stakes decision making. For example, it
may be desirable to ensure that all clusters discovered by an algorithm have
high gender diversity. Previously, these problems have been studied under a
setting where sensitive attributes, with respect to which fairness conditions
impose diversity across clusters, are assumed to be observable; hence,
protected groups are readily available. Most often, this may not be true, and
diversity or individual interests can manifest as an intrinsic or latent
feature of a social network. For example, depending on latent sensitive
attributes, individuals interact with each other and represent each other's
interests, resulting in a network, which we refer to as a representation graph.
Motivated by this, we propose an individual fairness criterion for clustering a
graph $\mathcal{G}$ that requires each cluster to contain an adequate number of
members connected to the individual under a representation graph $\mathcal{R}$.
We devise a spectral clustering algorithm to find fair clusters under a given
representation graph. We further propose a variant of the stochastic block
model and establish our algorithm's weak consistency under this model. Finally,
we present experimental results to corroborate our theoretical findings.
- Abstract(参考訳): 機械学習における公正性に関する研究は、近年、高い意思決定におけるその絶え間ない役割により、勢いを増している。
例えば、アルゴリズムによって発見された全てのクラスタが、性別の多様性が高いことを保証することが望ましい。
従来、これらの問題は、クラスタ間の多様性を規定する公平性条件が観測可能であると仮定されるため、保護されたグループが容易に利用できるという設定の下で研究されてきた。
ほとんどの場合、これは真実ではないかもしれないし、多様性や個人の興味は、ソーシャルネットワークの本質的または潜伏的な特徴として現れうる。
例えば、潜伏感のある属性に依存すると、個人は相互に相互作用し、互いの興味を表現し、結果としてネットワークとなり、それを表現グラフと呼ぶ。
これを動機として、グラフ $\mathcal{G}$ をクラスタリングする個々の公正度基準を提案し、各クラスタは表現グラフ $\mathcal{R}$ の下で、個人に連結された適切な数のメンバを含む必要がある。
スペクトルクラスタリングアルゴリズムを考案し、与えられた表現グラフの下で公正なクラスターを見つける。
さらに,確率ブロックモデルの変種を提案し,このモデルの下でのアルゴリズムの弱い一貫性を確立する。
最後に, 理論的知見を裏付ける実験結果を示す。
関連論文リスト
- Quality check of a sample partition using multinomial distribution [0.0]
我々は、サンプルのクラスタパーティションの品質をいくつかの異なるクラスに分類する目的で、新しい尺度を提唱する。
我々は,各クラスタの代表者からグループにクラスタ化されたデータメンバーの距離に,多項分布を適用した。
論文 参考訳(メタデータ) (2024-04-11T14:14:58Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Fair Correlation Clustering in Forests [8.810926150873991]
クラスタリングは、各クラスタが入力集合全体と同じ感度属性のマニフェストの分布を持つ場合、公平であると言われている。
これは、クラスタ化対象のオブジェクトが過度に、あるいは過度に表現すべきでないセンシティブな属性を持つ様々なアプリケーションによって動機付けられている。
我々は,このフェアネスの形式が抽出可能な機密属性の分布を特徴付けることができる制限付きグラフクラスを考察する。
論文 参考訳(メタデータ) (2023-02-22T11:27:06Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - A Notion of Individual Fairness for Clustering [22.288902523866867]
フェア機械学習における一般的な区別は、特にフェア分類において、グループフェアネスと個人フェアネスの区別である。
本稿では,クラスタリングにおける個別の公正性という自然な概念を提案する。この概念は,クラスタ内の各点が,他のクラスタの点よりも平均的に,自身のクラスタ内の点に近いことを問うものである。
論文 参考訳(メタデータ) (2020-06-08T21:41:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。