論文の概要: Fair Clustering: A Causal Perspective
- arxiv url: http://arxiv.org/abs/2312.09061v1
- Date: Thu, 14 Dec 2023 15:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 21:14:57.269417
- Title: Fair Clustering: A Causal Perspective
- Title(参考訳): 公正なクラスタリング: 因果的視点
- Authors: Fritz Bayer, Drago Plecko, Niko Beerenwinkel, Jack Kuipers
- Abstract要約: 非因果フェアネスの概念の最適化は、因果的観点から直接差別効果をパラドックス的に引き起こすことが示されている。
本稿では、因果フェアネス指標を取り入れたクラスタリング手法を提案し、教師なし学習における公平性に対するよりニュアンスなアプローチを提供する。
- 参考スコア(独自算出の注目度): 5.885238773559016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering algorithms may unintentionally propagate or intensify existing
disparities, leading to unfair representations or biased decision-making.
Current fair clustering methods rely on notions of fairness that do not capture
any information on the underlying causal mechanisms. We show that optimising
for non-causal fairness notions can paradoxically induce direct discriminatory
effects from a causal standpoint. We present a clustering approach that
incorporates causal fairness metrics to provide a more nuanced approach to
fairness in unsupervised learning. Our approach enables the specification of
the causal fairness metrics that should be minimised. We demonstrate the
efficacy of our methodology using datasets known to harbour unfair biases.
- Abstract(参考訳): クラスタリングアルゴリズムは意図せず既存の格差を広めるか強化し、不公平な表現や偏った意思決定につながる可能性がある。
現在の公正クラスタリング法は、基礎となる因果的メカニズムに関する情報を捉えない公平性の概念に依存している。
非因果的公平性概念の最適化は因果的観点から直接的差別的効果をパラドックス的に誘発する。
我々は,教師なし学習における公平性に対するよりニュアンス的なアプローチを提供するために,因果的公平性指標を組み込んだクラスタリングアプローチを提案する。
我々のアプローチは、最小化すべき因果フェアネスメトリクスの仕様を可能にする。
我々は,不公平なバイアスを回避できるデータセットを用いた手法の有効性を示す。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fair Correlation Clustering in Forests [8.810926150873991]
クラスタリングは、各クラスタが入力集合全体と同じ感度属性のマニフェストの分布を持つ場合、公平であると言われている。
これは、クラスタ化対象のオブジェクトが過度に、あるいは過度に表現すべきでないセンシティブな属性を持つ様々なアプリケーションによって動機付けられている。
我々は,このフェアネスの形式が抽出可能な機密属性の分布を特徴付けることができる制限付きグラフクラスを考察する。
論文 参考訳(メタデータ) (2023-02-22T11:27:06Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - A Pairwise Fair and Community-preserving Approach to k-Center Clustering [34.386585230600716]
クラスタリングは多くのアプリケーションで機械学習の基本的な問題である。
クラスタリング設定,ペアワイズフェアネス,コミュニティ保存の2つの新しいフェアネスを定義した。
論文 参考訳(メタデータ) (2020-07-14T22:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。