論文の概要: Learning to Generate Fair Clusters from Demonstrations
- arxiv url: http://arxiv.org/abs/2102.03977v1
- Date: Mon, 8 Feb 2021 03:09:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 10:28:47.983828
- Title: Learning to Generate Fair Clusters from Demonstrations
- Title(参考訳): デモから公正なクラスタを生成するための学習
- Authors: Sainyam Galhotra, Sandhya Saisubramanian and Shlomo Zilberstein
- Abstract要約: 本稿では,専門家による限定的な実証に基づいて,問題に対する意図された公平性制約を特定する方法について述べる。
本稿では、実演からフェアネスメトリックを識別し、既存のオフザシェルフクラスタリング技術を用いてクラスタを生成するアルゴリズムを提案する。
本稿では,本手法を用いて解釈可能な解を生成する方法について検討する。
- 参考スコア(独自算出の注目度): 27.423983748614198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair clustering is the process of grouping similar entities together, while
satisfying a mathematically well-defined fairness metric as a constraint. Due
to the practical challenges in precise model specification, the prescribed
fairness constraints are often incomplete and act as proxies to the intended
fairness requirement, leading to biased outcomes when the system is deployed.
We examine how to identify the intended fairness constraint for a problem based
on limited demonstrations from an expert. Each demonstration is a clustering
over a subset of the data.
We present an algorithm to identify the fairness metric from demonstrations
and generate clusters using existing off-the-shelf clustering techniques, and
analyze its theoretical properties. To extend our approach to novel fairness
metrics for which clustering algorithms do not currently exist, we present a
greedy method for clustering. Additionally, we investigate how to generate
interpretable solutions using our approach. Empirical evaluation on three
real-world datasets demonstrates the effectiveness of our approach in quickly
identifying the underlying fairness and interpretability constraints, which are
then used to generate fair and interpretable clusters.
- Abstract(参考訳): フェアクラスタリングは、数学的によく定義されたフェアネスメトリックを制約として満たしながら、類似したエンティティをグループ化するプロセスである。
正確なモデル仕様の実践的な課題のため、所定の公正性制約はしばしば不完全であり、意図された公正性要件のプロキシとして機能し、システムがデプロイされた時にバイアスのある結果をもたらす。
専門家による限定的な実演に基づいて,問題に対する公平性制約の特定方法について検討する。
それぞれのデモは、データのサブセット上でのクラスタリングである。
本稿では,既存のオフザシェルフクラスタリング技術を用いて,デモからフェアネスメトリックを識別し,クラスタを生成し,その理論的特性を解析するアルゴリズムを提案する。
現在クラスタリングアルゴリズムが存在しない新しい公平度メトリクスへのアプローチを拡張するため,クラスタリングのための欲張りな手法を提案する。
さらに、私たちのアプローチを使用して解釈可能なソリューションを生成する方法を調査します。
3つの実世界のデータセットに関する実証的評価は、基礎となる公平性と解釈可能性の制約を迅速に特定するアプローチの有効性を示しています。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - From Discrete to Continuous: Deep Fair Clustering With Transferable Representations [6.366934969620947]
離散的かつ連続的な属性を同時に処理できるフレキシブルなディープ・フェア・クラスタリング法を提案する。
具体的には、公平でクラスタリングに優しい表現を学習するために、情報ボトルネックスタイルの客観的関数を設計する。
既存の作業とは異なり、転送されたタスクの公平性を保証するために、表現レベルに公平性を課す。
論文 参考訳(メタデータ) (2024-03-24T15:48:29Z) - Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。