論文の概要: Improved Approximation for Fair Correlation Clustering
- arxiv url: http://arxiv.org/abs/2206.05050v1
- Date: Thu, 9 Jun 2022 03:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 08:06:14.020222
- Title: Improved Approximation for Fair Correlation Clustering
- Title(参考訳): 相関クラスタリングのための近似の改良
- Authors: Sara Ahmadian and Maryam Negahbani
- Abstract要約: 相関クラスタリングは教師なし機械学習におけるユビキタスパラダイムであり、不公平に対処することが大きな課題である。
そこで本研究では,データポイントが異なる保護グループに属しているフェア相関クラスタリングについて検討する。
本稿は,Ahmadi et al.とAhmadian et alの以前の研究の質保証を著しく一般化し,改善する。
- 参考スコア(独自算出の注目度): 4.629694186457133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Correlation clustering is a ubiquitous paradigm in unsupervised machine
learning where addressing unfairness is a major challenge. Motivated by this,
we study Fair Correlation Clustering where the data points may belong to
different protected groups and the goal is to ensure fair representation of all
groups across clusters. Our paper significantly generalizes and improves on the
quality guarantees of previous work of Ahmadi et al. and Ahmadian et al. as
follows.
- We allow the user to specify an arbitrary upper bound on the representation
of each group in a cluster.
- Our algorithm allows individuals to have multiple protected features and
ensure fairness simultaneously across them all.
- We prove guarantees for clustering quality and fairness in this general
setting. Furthermore, this improves on the results for the special cases
studied in previous work. Our experiments on real-world data demonstrate that
our clustering quality compared to the optimal solution is much better than
what our theoretical result suggests.
- Abstract(参考訳): 相関クラスタリングは、不公平に対処することが大きな課題である教師なし機械学習におけるユビキタスパラダイムである。
そこで我々は,データポイントが異なる保護グループに属し,クラスタ全体のすべてのグループを公平に表現することを目的とした,公平な相関クラスタリングについて検討した。
本稿は,Ahmadi et al. と Ahmadian et al. の以前の研究の質保証を,下記のように大幅に一般化し,改善する。
-クラスタ内の各グループの表現の任意の上限をユーザが指定できるようにする。
-我々のアルゴリズムでは、個人が複数の保護された機能を持ち、同時に公平性を確保することができます。
-この一般的な設定でクラスタリングの品質と公平性を保証する。
さらに, 先行研究で検討した特別事例の結果も向上した。
実世界データを用いた実験により, 最適解と比較したクラスタリング品質は, 理論結果よりはるかに優れていることが示された。
関連論文リスト
- Uniting contrastive and generative learning for event sequences models [51.547576949425604]
本研究では,2つの自己指導型学習手法 – 例えば,コントラスト学習と,潜在空間におけるマスクイベントの復元に基づく生成的アプローチ – の統合について検討する。
いくつかの公開データセットで行った実験は、シーケンス分類と次点型予測に焦点を合わせ、統合された手法が個々の手法と比較して優れた性能を達成することを示した。
論文 参考訳(メタデータ) (2024-08-19T13:47:17Z) - Robust Fair Clustering with Group Membership Uncertainty Sets [31.29773979737976]
本研究では,各集団の集団レベルでの表現に近づき,各集団が制約される正準公正クラスタリング問題について検討する。
簡単なノイズモデルを導入し、意思決定者によって与えられるパラメータを少数必要とします。
本稿では,不規則性保証を証明可能なフェアクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-02T03:11:31Z) - Fair Labeled Clustering [28.297893914525517]
クラスタリングのダウンストリーム適用と,そのような設定に対してグループフェアネスをどのように確保するかを検討する。
このような問題に対するアルゴリズムを提供し、グループフェアクラスタリングにおけるNPハードのアルゴリズムとは対照的に、効率的な解が可能であることを示す。
また、距離空間における中心位置に関係なく、意思決定者が自由にクラスタにラベルを割り当てることができるような、モチベーションのよい代替設定についても検討する。
論文 参考訳(メタデータ) (2022-05-28T07:07:12Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Efficient Algorithms For Fair Clustering with a New Fairness Notion [5.21410307583181]
我々は、Chierichettiらによって最初に導入されたフェアクラスタリングの問題を再考する。
既存のクラスタリングのソリューションはスケーラビリティが低いか、クラスタリングの目的と公平性のトレードオフを最適に達成できないかのいずれかです。
バランス特性を厳密に一般化し、細粒度効率とフェアネストレードオフを可能にする、$tau$-fair Fairnessと呼ばれる新しいフェアネスの概念を提案する。
論文 参考訳(メタデータ) (2021-09-02T04:52:49Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。