論文の概要: Uncovering Discrimination Clusters: Quantifying and Explaining Systematic Fairness Violations
- arxiv url: http://arxiv.org/abs/2512.23769v1
- Date: Mon, 29 Dec 2025 06:44:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.154295
- Title: Uncovering Discrimination Clusters: Quantifying and Explaining Systematic Fairness Violations
- Title(参考訳): 識別クラスタの発見:システムフェアネス違反の定量化と説明
- Authors: Ranit Debnath Akash, Ashish Kumar, Verya Monjezi, Ashutosh Trivedi, Gang, Tan, Saeid Tizpaz-Niari,
- Abstract要約: 我々は差別クラスタリングの概念を導入し、動機づける。
単一対実差を検出するのではなく、保護された特徴の小さな摂動がk個の異なる結果のクラスターにつながる入力空間の領域を明らかにする。
本稿では,SMTとMILPによる形式的記号解析を組み合わせたハイブリッド手法HyFairを提案する。
- 参考スコア(独自算出の注目度): 9.31821136819172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness in algorithmic decision-making is often framed in terms of individual fairness, which requires that similar individuals receive similar outcomes. A system violates individual fairness if there exists a pair of inputs differing only in protected attributes (such as race or gender) that lead to significantly different outcomes-for example, one favorable and the other unfavorable. While this notion highlights isolated instances of unfairness, it fails to capture broader patterns of systematic or clustered discrimination that may affect entire subgroups. We introduce and motivate the concept of discrimination clustering, a generalization of individual fairness violations. Rather than detecting single counterfactual disparities, we seek to uncover regions of the input space where small perturbations in protected features lead to k-significantly distinct clusters of outcomes. That is, for a given input, we identify a local neighborhood-differing only in protected attributes-whose members' outputs separate into many distinct clusters. These clusters reveal significant arbitrariness in treatment solely based on protected attributes that help expose patterns of algorithmic bias that elude pairwise fairness checks. We present HyFair, a hybrid technique that combines formal symbolic analysis (via SMT and MILP solvers) to certify individual fairness with randomized search to discover discriminatory clusters. This combination enables both formal guarantees-when no counterexamples exist-and the detection of severe violations that are computationally challenging for symbolic methods alone. Given a set of inputs exhibiting high k-unfairness, we introduce a novel explanation method to generate interpretable, decision-tree-style artifacts. Our experiments demonstrate that HyFair outperforms state-of-the-art fairness verification and local explanation methods.
- Abstract(参考訳): アルゴリズムによる意思決定の公平さは、しばしば、類似した個人が同様の結果を得る必要がある個々の公正さという観点で表される。
あるシステムは、保護された属性(人種や性別など)でのみ異なる2つの入力が存在する場合(例えば、好ましくないものと好ましくないものなど)、個々の公正性に反する。
この概念は、孤立した不公平な事例を強調しているが、全てのサブグループに影響を与える可能性のある、体系的またはクラスタ化された差別のより広範なパターンを捉えることに失敗している。
本稿では, 差別クラスタリングの概念, 個人公正違反の一般化の導入と動機付けを行う。
単一対実差を検出するのではなく、保護された特徴の小さな摂動がk個の異なる結果のクラスターにつながる入力空間の領域を明らかにする。
すなわち、与えられた入力に対して、各メンバーの出力を多くの異なるクラスタに分けた保護属性のみに局所的な近傍差分を識別する。
これらのクラスタは、ペアワイズフェアネスチェックを損なうアルゴリズムバイアスのパターンを明らかにするのに役立つ保護属性のみに基づいて、治療において重要な仲裁性を示す。
本稿では,SMTとMILPによる形式的記号解析を組み合わせたハイブリッド手法HyFairを提案する。
この組み合わせにより、公式な保証が存在しない場合と、シンボリックメソッドだけで計算的に困難である厳密な違反の検出の両方が可能となる。
高いk不公平を示す一連の入力を考慮に入れ,解釈可能な決定木型アーティファクトを生成するための新しい説明法を提案する。
実験の結果,HyFairは最先端のフェアネス検証や局所的説明手法よりも優れていた。
関連論文リスト
- Fairness-Aware Grouping for Continuous Sensitive Variables: Application for Debiasing Face Analysis with respect to Skin Tone [3.3298048942057523]
連続的(多次元的)な属性に対する公平性に基づくグループ化手法を提案する。
識別レベルに応じてデータをグループ化することにより、新しい基準を最大化する分割を同定する。
提案手法を複数の合成データセットを用いて検証し,人口分布の変化によるロバスト性を示す。
論文 参考訳(メタデータ) (2025-07-15T12:21:52Z) - Fair Correlation Clustering in Forests [8.810926150873991]
クラスタリングは、各クラスタが入力集合全体と同じ感度属性のマニフェストの分布を持つ場合、公平であると言われている。
これは、クラスタ化対象のオブジェクトが過度に、あるいは過度に表現すべきでないセンシティブな属性を持つ様々なアプリケーションによって動機付けられている。
我々は,このフェアネスの形式が抽出可能な機密属性の分布を特徴付けることができる制限付きグラフクラスを考察する。
論文 参考訳(メタデータ) (2023-02-22T11:27:06Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Protecting Individual Interests across Clusters: Spectral Clustering
with Guarantees [20.350342151402963]
我々は、各クラスタが各クラスタに接続された適切なメンバー数を含む必要があるグラフ $mathcalg$ をクラスタリングするための個別フェアネス基準を提案する。
与えられた表現グラフの下で公正なクラスタを見つけるためのスペクトルクラスタリングアルゴリズムを考案する。
論文 参考訳(メタデータ) (2021-05-08T15:03:25Z) - A Pairwise Fair and Community-preserving Approach to k-Center Clustering [34.386585230600716]
クラスタリングは多くのアプリケーションで機械学習の基本的な問題である。
クラスタリング設定,ペアワイズフェアネス,コミュニティ保存の2つの新しいフェアネスを定義した。
論文 参考訳(メタデータ) (2020-07-14T22:32:27Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。