論文の概要: Interpretable Fair Clustering
- arxiv url: http://arxiv.org/abs/2511.21109v1
- Date: Wed, 26 Nov 2025 06:52:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.99893
- Title: Interpretable Fair Clustering
- Title(参考訳): 解釈可能なフェアクラスタリング
- Authors: Mudi Jiang, Jiahui Zhou, Xinying Liu, Zengyou He, Zhikui Chen,
- Abstract要約: 本稿では,公平性制約を決定木の構造に組み込む,解釈可能かつ公平なクラスタリングフレームワークを提案する。
提案手法は,保護されたグループ間の公平な処理を確保しつつ,データを分割する解釈可能な決定木を構築する。
- 参考スコア(独自算出の注目度): 14.310871812932193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair clustering has gained increasing attention in recent years, especially in applications involving socially sensitive attributes. However, existing fair clustering methods often lack interpretability, limiting their applicability in high-stakes scenarios where understanding the rationale behind clustering decisions is essential. In this work, we address this limitation by proposing an interpretable and fair clustering framework, which integrates fairness constraints into the structure of decision trees. Our approach constructs interpretable decision trees that partition the data while ensuring fair treatment across protected groups. To further enhance the practicality of our framework, we also introduce a variant that requires no fairness hyperparameter tuning, achieved through post-pruning a tree constructed without fairness constraints. Extensive experiments on both real-world and synthetic datasets demonstrate that our method not only delivers competitive clustering performance and improved fairness, but also offers additional advantages such as interpretability and the ability to handle multiple sensitive attributes. These strengths enable our method to perform robustly under complex fairness constraints, opening new possibilities for equitable and transparent clustering.
- Abstract(参考訳): 近年、社会に敏感な属性を含むアプリケーションにおいて、公正なクラスタリングが注目を集めている。
しかし、既存の公正なクラスタリング手法は解釈可能性に欠けることが多く、クラスタリング決定の背景にある理論的根拠を理解することが不可欠であるハイステークなシナリオで適用性を制限する。
本研究は, 公平性制約を決定木の構造に統合する, 解釈可能かつ公平なクラスタリングフレームワークを提案することで, この制限に対処する。
提案手法は,保護されたグループ間の公平な処理を確保しつつ,データを分割する解釈可能な決定木を構築する。
また,本フレームワークの実用性をさらに向上するため,不公平な制約を伴わずに構築した木をポストプルーニングすることで達成した,公平度ハイパーパラメータチューニングを必要としない変種を導入する。
実世界のデータセットと合成データセットの両方に対する大規模な実験により、我々の手法は競合するクラスタリング性能と公正性の向上を提供するだけでなく、解釈可能性や複数の機密属性を扱う能力など、さらなるアドバンテージも提供することが示された。
これらの強みにより、複雑な公正性制約の下で頑健に動作することができ、公平で透明なクラスタリングの新たな可能性を開くことができる。
関連論文リスト
- GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - From Discrete to Continuous: Deep Fair Clustering With Transferable Representations [6.366934969620947]
離散的かつ連続的な属性を同時に処理できるフレキシブルなディープ・フェア・クラスタリング法を提案する。
具体的には、公平でクラスタリングに優しい表現を学習するために、情報ボトルネックスタイルの客観的関数を設計する。
既存の作業とは異なり、転送されたタスクの公平性を保証するために、表現レベルに公平性を課す。
論文 参考訳(メタデータ) (2024-03-24T15:48:29Z) - Optimal Decision Trees For Interpretable Clustering with Constraints
(Extended Version) [7.799182201815762]
制約クラスタリング(Constrained clustering)は、制約として定式化された限られた量のラベル付きデータを使用する半教師付きタスクである。
本稿では、クラスタリング制約をサポートする解釈可能なクラスタリングのための新しいSATベースのフレームワークを提案する。
また,ユーザが提供する制約の解釈可能性と満足度とのトレードオフについて,新たな知見を提示する。
論文 参考訳(メタデータ) (2023-01-30T05:34:49Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Learning to Generate Fair Clusters from Demonstrations [27.423983748614198]
本稿では,専門家による限定的な実証に基づいて,問題に対する意図された公平性制約を特定する方法について述べる。
本稿では、実演からフェアネスメトリックを識別し、既存のオフザシェルフクラスタリング技術を用いてクラスタを生成するアルゴリズムを提案する。
本稿では,本手法を用いて解釈可能な解を生成する方法について検討する。
論文 参考訳(メタデータ) (2021-02-08T03:09:33Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。