論文の概要: Robust Fair Clustering: A Novel Fairness Attack and Defense Framework
- arxiv url: http://arxiv.org/abs/2210.01953v2
- Date: Tue, 24 Jan 2023 01:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:30:25.826969
- Title: Robust Fair Clustering: A Novel Fairness Attack and Defense Framework
- Title(参考訳): ロバストフェアクラスタリング - 新たなフェアネス攻撃と防御フレームワーク
- Authors: Anshuman Chhabra, Peizhao Li, Prasant Mohapatra, Hongfu Liu
- Abstract要約: フェアクラスタリングアルゴリズムに対する新しいブラックボックスフェアネス攻撃を提案する。
我々は、最先端のモデルが我々の攻撃に非常に影響を受けやすいことを発見した。
また,最初のロバストなフェアクラスタリング手法であるConsensus Fair Clustering (CFC)を提案する。
- 参考スコア(独自算出の注目度): 33.87395800206783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering algorithms are widely used in many societal resource allocation
applications, such as loan approvals and candidate recruitment, among others,
and hence, biased or unfair model outputs can adversely impact individuals that
rely on these applications. To this end, many fair clustering approaches have
been recently proposed to counteract this issue. Due to the potential for
significant harm, it is essential to ensure that fair clustering algorithms
provide consistently fair outputs even under adversarial influence. However,
fair clustering algorithms have not been studied from an adversarial attack
perspective. In contrast to previous research, we seek to bridge this gap and
conduct a robustness analysis against fair clustering by proposing a novel
black-box fairness attack. Through comprehensive experiments, we find that
state-of-the-art models are highly susceptible to our attack as it can reduce
their fairness performance significantly. Finally, we propose Consensus Fair
Clustering (CFC), the first robust fair clustering approach that transforms
consensus clustering into a fair graph partitioning problem, and iteratively
learns to generate fair cluster outputs. Experimentally, we observe that CFC is
highly robust to the proposed attack and is thus a truly robust fair clustering
alternative.
- Abstract(参考訳): クラスタリングアルゴリズムは、ローン承認や候補者採用など、多くの社会的リソース割り当てアプリケーションで広く使われているため、バイアスや不公平なモデル出力は、これらのアプリケーションに依存する個人に悪影響を及ぼす可能性がある。
この目的のために、この問題に対応するために多くの公正クラスタリングアプローチが最近提案されている。
重大な害の可能性があるため、公正なクラスタリングアルゴリズムが逆の影響下でも一貫して公平なアウトプットを提供することが不可欠である。
しかし、対向攻撃の観点からは、公正クラスタリングアルゴリズムは研究されていない。
従来の研究とは対照的に、我々はこのギャップを橋渡し、新しいブラックボックスフェアネス攻撃を提案し、フェアクラスタリングに対するロバストネス分析を行う。
総合的な実験を通して、最先端のモデルが我々の攻撃に対して非常に影響を受けやすいことが判明した。
最後に,コンセンサスクラスタリングを公正グラフ分割問題に変換する最初の堅牢な公正クラスタリングアプローチであるコンセンサスフェアクラスタリング(cfc)を提案する。
実験では,提案する攻撃に対してcfcは高いロバスト性を有するため,真にロバストなフェアクラスタリングの代替手段であることを確認した。
関連論文リスト
- GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Fairness Degrading Adversarial Attacks Against Clustering Algorithms [35.40427659749882]
そこで本研究では,k-medianクラスタリングのためのフェアネス劣化攻撃アルゴリズムを提案する。
生成した対数サンプルの追加により、フェアネス値が大幅に低下することが判明した。
論文 参考訳(メタデータ) (2021-10-22T19:10:27Z) - Hybrid Dynamic Contrast and Probability Distillation for Unsupervised
Person Re-Id [109.1730454118532]
非監督的人物再識別(Re-Id)は、リードワールドビデオ監視システムにおける実践的応用により注目されている。
本稿では,ハイブリッド動的クラスタコントラストと確率蒸留アルゴリズムを提案する。
教師なしRe-Id問題を局所-言語的ダイナミックコントラスト学習と自己教師付き確率蒸留の枠組みに統合する。
論文 参考訳(メタデータ) (2021-09-29T02:56:45Z) - Efficient Algorithms For Fair Clustering with a New Fairness Notion [5.21410307583181]
我々は、Chierichettiらによって最初に導入されたフェアクラスタリングの問題を再考する。
既存のクラスタリングのソリューションはスケーラビリティが低いか、クラスタリングの目的と公平性のトレードオフを最適に達成できないかのいずれかです。
バランス特性を厳密に一般化し、細粒度効率とフェアネストレードオフを可能にする、$tau$-fair Fairnessと呼ばれる新しいフェアネスの概念を提案する。
論文 参考訳(メタデータ) (2021-09-02T04:52:49Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - A Pairwise Fair and Community-preserving Approach to k-Center Clustering [34.386585230600716]
クラスタリングは多くのアプリケーションで機械学習の基本的な問題である。
クラスタリング設定,ペアワイズフェアネス,コミュニティ保存の2つの新しいフェアネスを定義した。
論文 参考訳(メタデータ) (2020-07-14T22:32:27Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z) - Fair Correlation Clustering [92.15492066925977]
相関クラスタリングの近似アルゴリズムは,いくつかの重要なフェアネス制約の下で得られる。
相関クラスタリングに対する公平な解は、最先端の(不公平な)アルゴリズムと比較して、コストを抑えながら得られることを示す。
論文 参考訳(メタデータ) (2020-02-06T14:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。