論文の概要: Breaking Fair Binary Classification with Optimal Flipping Attacks
- arxiv url: http://arxiv.org/abs/2204.05472v2
- Date: Mon, 9 May 2022 15:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:14:40.304585
- Title: Breaking Fair Binary Classification with Optimal Flipping Attacks
- Title(参考訳): 最適反転攻撃によるフェアバイナリ分類の解読
- Authors: Changhun Jo, Jy-yong Sohn, Kangwook Lee
- Abstract要約: 公正性制約によるリスクの最小化は、公平な分類法を学ぶための一般的なアプローチの1つである。
最近の研究は、トレーニングセットが破損した場合、このアプローチが不公平な分類子となることを示した。
本研究では,フリップ攻撃を成功させるために必要な最小データ破損量について検討する。
- 参考スコア(独自算出の注目度): 20.491652961382325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Minimizing risk with fairness constraints is one of the popular approaches to
learning a fair classifier. Recent works showed that this approach yields an
unfair classifier if the training set is corrupted. In this work, we study the
minimum amount of data corruption required for a successful flipping attack.
First, we find lower/upper bounds on this quantity and show that these bounds
are tight when the target model is the unique unconstrained risk minimizer.
Second, we propose a computationally efficient data poisoning attack algorithm
that can compromise the performance of fair learning algorithms.
- Abstract(参考訳): 公平さの制約によるリスクの最小化は、公正な分類法を学ぶための一般的なアプローチの1つだ。
最近の研究は、トレーニングセットが破損した場合、このアプローチが不公平な分類子となることを示した。
本研究では,フリップ攻撃を成功させるために必要な最小データ破損量について検討する。
まず, 対象モデルが一意の制約のないリスク最小化器である場合に, これらの境界がきついことを示す。
次に、公正学習アルゴリズムの性能を損なうことができる計算効率の良いデータ中毒攻撃アルゴリズムを提案する。
関連論文リスト
- Minimax Optimal Fair Classification with Bounded Demographic Disparity [28.936244976415484]
本稿では,2つの保護群による公正二項分類の統計的基礎について考察する。
有限サンプルを用いると、グループ固有の受容閾値を推定する必要があるため、追加のコストが発生することを示す。
オフセットを持つグループワイドしきい値法であるFairBayes-DDP+を提案する。
論文 参考訳(メタデータ) (2024-03-27T02:59:04Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Boosted CVaR Classification [44.731468512484824]
モデル尾部性能を最大化するための一般的なアプローチは、CVaR損失を最小限に抑えることである。
モデルがゼロ1損失によって評価される分類タスクの場合、平均ゼロ1損失の最小化はCVaRゼロ1損失を最小化する。
本稿では,CVaR と LPBoost という古典的ブースティングアルゴリズムとの直接的な関係を動機としたBoosted CVaR 分類フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-26T18:27:25Z) - Efficient First-Order Contextual Bandits: Prediction, Allocation, and
Triangular Discrimination [82.52105963476703]
統計的学習、オンライン学習、その他における繰り返しのテーマは、低騒音の問題に対してより速い収束率が可能であることである。
1次保証は統計的およびオンライン学習において比較的よく理解されている。
三角識別と呼ばれる対数損失と情報理論量が一階保証を得る上で基本的な役割を担っていることを示す。
論文 参考訳(メタデータ) (2021-07-05T19:20:34Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Classification with abstention but without disparities [5.025654873456756]
我々は、異なる影響を回避しつつ、予測を棄却できる汎用的な分類アルゴリズムを構築した。
提案したアルゴリズムに対して,有限サンプルリスク,公平性,および留意保証を確立する。
本手法は, 適度な禁制率により, リスク・フェアネストレードオフを回避できることを実証的に示す。
論文 参考訳(メタデータ) (2021-02-24T12:43:55Z) - Learning from Similarity-Confidence Data [94.94650350944377]
類似度信頼性(Sconf)データから学習する新しい弱監督学習問題について検討する。
本研究では,Sconfデータのみから計算可能な分類リスクの非バイアス推定器を提案し,推定誤差境界が最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-02-13T07:31:16Z) - Minimax Group Fairness: Algorithms and Experiments [18.561824632836405]
我々は,極小群フェアネスのための有意収束性オラクル効率学習アルゴリズムを提供する。
我々のアルゴリズムは回帰と分類の両方に当てはまる。
ミニマックスフェアネスが厳密で、平等な結果の概念よりも強く好ましい経験的ケースを示す。
論文 参考訳(メタデータ) (2020-11-05T21:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。