論文の概要: Representativity Fairness in Clustering
- arxiv url: http://arxiv.org/abs/2010.07054v1
- Date: Sun, 11 Oct 2020 21:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 13:17:20.757153
- Title: Representativity Fairness in Clustering
- Title(参考訳): クラスタリングにおける表現性公正性
- Authors: Deepak P and Savitha Sam Abraham
- Abstract要約: 我々は、表現性公正という、クラスタリングにおけるフェアネスという新しい概念を開発する。
本稿では,クラスタリングを含む実世界の意思決定シナリオにおける表現力の公平性の重要性について述べる。
我々は,クラスタリング品質とともに,表現性公正性を最適化する新たなクラスタリング定式化RFKMを開発した。
- 参考スコア(独自算出の注目度): 5.320087179174425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incorporating fairness constructs into machine learning algorithms is a topic
of much societal importance and recent interest. Clustering, a fundamental task
in unsupervised learning that manifests across a number of web data scenarios,
has also been subject of attention within fair ML research. In this paper, we
develop a novel notion of fairness in clustering, called representativity
fairness. Representativity fairness is motivated by the need to alleviate
disparity across objects' proximity to their assigned cluster representatives,
to aid fairer decision making. We illustrate the importance of representativity
fairness in real-world decision making scenarios involving clustering and
provide ways of quantifying objects' representativity and fairness over it. We
develop a new clustering formulation, RFKM, that targets to optimize for
representativity fairness along with clustering quality. Inspired by the
$K$-Means framework, RFKM incorporates novel loss terms to formulate an
objective function. The RFKM objective and optimization approach guides it
towards clustering configurations that yield higher representativity fairness.
Through an empirical evaluation over a variety of public datasets, we establish
the effectiveness of our method. We illustrate that we are able to
significantly improve representativity fairness at only marginal impact to
clustering quality.
- Abstract(参考訳): 機械学習アルゴリズムに公正構造を組み込むことは、社会的重要性と最近の関心のトピックである。
多くのwebデータシナリオにまたがる教師なし学習の基本タスクであるクラスタリングも、公正なml研究において注目を集めている。
本稿では,表現性公正という,クラスタリングにおける公平性の新たな概念を開発する。
代表性公平性は、公平な意思決定を支援するために、割り当てられたクラスタの代表者に対するオブジェクトの近接間の不一致を緩和する必要性によって動機付けられる。
本稿では,クラスタリングを含む実世界の意思決定シナリオにおける表現力の公平性の重要性について述べる。
我々は,クラスタリング品質とともに,表現性公正性を最適化する新たなクラスタリング形式RFKMを開発した。
K$-MeansフレームワークにインスパイアされたRFKMは、新しい損失項を組み込んで目的関数を定式化する。
RFKMの目的と最適化のアプローチは、高い表現性公正性をもたらすクラスタリング構成へと導く。
様々な公開データセットに対する経験的評価を通じて,本手法の有効性を確定する。
クラスタリングの品質に対する限界的な影響だけで、表現力の公平性を大幅に改善できることを示す。
関連論文リスト
- Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - From Discrete to Continuous: Deep Fair Clustering With Transferable Representations [6.366934969620947]
離散的かつ連続的な属性を同時に処理できるフレキシブルなディープ・フェア・クラスタリング法を提案する。
具体的には、公平でクラスタリングに優しい表現を学習するために、情報ボトルネックスタイルの客観的関数を設計する。
既存の作業とは異なり、転送されたタスクの公平性を保証するために、表現レベルに公平性を課す。
論文 参考訳(メタデータ) (2024-03-24T15:48:29Z) - Structural Adversarial Objectives for Self-Supervised Representation
Learning [19.471586646254373]
本稿では,自己指導型表現学習の差別化を,構造モデリングの責務を付加することで行うことを提案する。
ネットワーク上の効率的なスムーズ性正規化器と組み合わせて、これらの目的は識別器を案内し、情報表現の抽出を学ぶ。
実験により,GANを自己指導対象に組み込むことで,表現学習の観点から評価された差別化要因が,対照的な学習アプローチによって訓練されたネットワークと競合することを示す。
論文 参考訳(メタデータ) (2023-09-30T12:27:53Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Fair Clustering Under a Bounded Cost [33.50262066253557]
クラスタリングは、データセットをメトリクス空間内の近くのポイントで構成されるクラスタに分割する、基本的な教師なしの学習問題である。
最近の変種であるフェアクラスタリング(英語版)は、各点とその群のメンバーシップを表す色を関連付け、各色が群フェアネスを満たすために各クラスタに等しい表現(およそ)を持つことを要求する。
我々は,集団の実用的目的と集団の平等的目的,および集団の平等的目的を一般化するグループ・レキシミン的目的の2つの公正性を考察する。
論文 参考訳(メタデータ) (2021-06-14T08:47:36Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。