論文の概要: Fairness Degrading Adversarial Attacks Against Clustering Algorithms
- arxiv url: http://arxiv.org/abs/2110.12020v1
- Date: Fri, 22 Oct 2021 19:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 17:38:23.880037
- Title: Fairness Degrading Adversarial Attacks Against Clustering Algorithms
- Title(参考訳): クラスタリングアルゴリズムに対する逆攻撃の公平性低下
- Authors: Anshuman Chhabra, Adish Singla, Prasant Mohapatra
- Abstract要約: そこで本研究では,k-medianクラスタリングのためのフェアネス劣化攻撃アルゴリズムを提案する。
生成した対数サンプルの追加により、フェアネス値が大幅に低下することが判明した。
- 参考スコア(独自算出の注目度): 35.40427659749882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering algorithms are ubiquitous in modern data science pipelines, and
are utilized in numerous fields ranging from biology to facility location. Due
to their widespread use, especially in societal resource allocation problems,
recent research has aimed at making clustering algorithms fair, with great
success. Furthermore, it has also been shown that clustering algorithms, much
like other machine learning algorithms, are susceptible to adversarial attacks
where a malicious entity seeks to subvert the performance of the learning
algorithm. However, despite these known vulnerabilities, there has been no
research undertaken that investigates fairness degrading adversarial attacks
for clustering. We seek to bridge this gap by formulating a generalized attack
optimization problem aimed at worsening the group-level fairness of
centroid-based clustering algorithms. As a first step, we propose a fairness
degrading attack algorithm for k-median clustering that operates under a
whitebox threat model -- where the clustering algorithm, fairness notion, and
the input dataset are known to the adversary. We provide empirical results as
well as theoretical analysis for our simple attack algorithm, and find that the
addition of the generated adversarial samples can lead to significantly lower
fairness values. In this manner, we aim to motivate fairness degrading
adversarial attacks as a direction for future research in fair clustering.
- Abstract(参考訳): クラスタリングアルゴリズムは現代のデータサイエンスパイプラインにおいてユビキタスであり、生物学から施設の場所まで様々な分野で利用されている。
特に社会資源配分問題において広く利用されているため、最近の研究はクラスタリングアルゴリズムを公平にすることを目的としており、大きな成功を収めている。
さらに、他の機械学習アルゴリズムと同様、クラスタリングアルゴリズムは、悪意のあるエンティティが学習アルゴリズムのパフォーマンスを反転させようとする敵攻撃の影響を受けやすいことも示されている。
しかし、これらの既知の脆弱性にもかかわらず、クラスタリングに対する敵攻撃の公平性を調査する研究は行われていない。
我々は,centroidベースのクラスタリングアルゴリズムの集団レベルの公平性を悪化させることを目的とした汎用攻撃最適化問題を定式化することで,このギャップを埋めることを目指す。
最初のステップとして、クラスタリングアルゴリズム、フェアネスの概念、入力データセットが敵に知られているホワイトボックス脅威モデルの下で動作するk中間クラスタリングのためのフェアネス劣化攻撃アルゴリズムを提案する。
簡単な攻撃アルゴリズムに対して実験結果と理論的解析を行い, 生成した対数サンプルの追加により, フェアネス値が著しく低下することを発見した。
このようにして、フェアクラスタリングにおける今後の研究の方向性として、敵攻撃の公正性低下を動機づける。
関連論文リスト
- GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - A Rapid Review of Clustering Algorithms [5.46715422237599]
クラスタリングアルゴリズムは、データ内の固有のパターンと類似性に基づいて、データをグループまたはクラスタにまとめることを目的としている。
それらは、マーケティングやeコマース、ヘルスケア、データ組織と分析、ソーシャルメディアなど、今日の生活において重要な役割を担っている。
既存のクラスタリングアルゴリズムを分析し、5つの異なる次元で主要なアルゴリズムを分類した。
論文 参考訳(メタデータ) (2024-01-14T23:19:53Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Adversarial Robustness of Streaming Algorithms through Importance
Sampling [29.957317489789745]
我々は、中央の機械学習とアルゴリズムタスクに逆向きに頑健なストリーミングアルゴリズムを導入する。
我々の結果は、多くの重要なサンプリングベースのアルゴリズムが敵の堅牢性をもたらすという、単純だが強力で観察に基づいている。
我々は、様々な敵攻撃に対するアルゴリズムの堅牢性を実証的に確認し、対照的に、いくつかの一般的なアルゴリズムは堅牢ではないことを示す。
論文 参考訳(メタデータ) (2021-06-28T19:24:11Z) - Fair Clustering Using Antidote Data [35.40427659749882]
クラスタリングにおける公正性に対する代替的アプローチとして,アンチドテデータと呼ばれる少数のデータポイントで元のデータセットを拡大する手法を提案する。
我々のアルゴリズムは、他の最先端のフェアクラスタリングアルゴリズムと比較して、フェアネスコストと競合クラスタリング性能を低くする。
論文 参考訳(メタデータ) (2021-06-01T16:07:52Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z) - Fair Algorithms for Hierarchical Agglomerative Clustering [17.66340013352806]
Hierarchical Agglomerative Clustering (HAC)アルゴリズムは、現代のデータサイエンスで広く利用されている。
たとえデータセットが特定の保護されたグループに対するバイアスを含むとしても、これらのアルゴリズムが公平であることを保証することが不可欠である。
公平性制約を強制するHACを行うための公正アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-07T01:41:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。