論文の概要: Certified Robustness to Label-Flipping Attacks via Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2002.03018v4
- Date: Tue, 11 Aug 2020 13:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 03:23:57.564689
- Title: Certified Robustness to Label-Flipping Attacks via Randomized Smoothing
- Title(参考訳): ランダム化平滑化によるラベルフリッピング攻撃に対する認定ロバスト性
- Authors: Elan Rosenfeld, Ezra Winston, Pradeep Ravikumar, J. Zico Kolter
- Abstract要約: 機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
- 参考スコア(独自算出の注目度): 105.91827623768724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms are known to be susceptible to data poisoning
attacks, where an adversary manipulates the training data to degrade
performance of the resulting classifier. In this work, we present a unifying
view of randomized smoothing over arbitrary functions, and we leverage this
novel characterization to propose a new strategy for building classifiers that
are pointwise-certifiably robust to general data poisoning attacks. As a
specific instantiation, we utilize our framework to build linear classifiers
that are robust to a strong variant of label flipping, where each test example
is targeted independently. In other words, for each test point, our classifier
includes a certification that its prediction would be the same had some number
of training labels been changed adversarially. Randomized smoothing has
previously been used to guarantee---with high probability---test-time
robustness to adversarial manipulation of the input to a classifier; we derive
a variant which provides a deterministic, analytical bound, sidestepping the
probabilistic certificates that traditionally result from the sampling
subprocedure. Further, we obtain these certified bounds with minimal additional
runtime complexity over standard classification and no assumptions on the train
or test distributions. We generalize our results to the multi-class case,
providing the first multi-class classification algorithm that is certifiably
robust to label-flipping attacks.
- Abstract(参考訳): 機械学習アルゴリズムは、敵がトレーニングデータを操作して結果の分類器のパフォーマンスを低下させるデータ中毒攻撃の影響を受けやすいことが知られている。
本研究では,任意の関数に対するランダム化平滑化の統一的視点を提示し,この特徴を活用し,汎用データ中毒攻撃に対してポイントワイズに堅牢な分類器を構築するための新しい戦略を提案する。
特定のインスタンス化として、私たちはこのフレームワークを使用して、各テスト例を独立してターゲットとする、強力なラベルフリップの変種に対して堅牢な線形分類器を構築します。
言い換えれば、各テストポイントに対して、我々の分類器は、いくつかのトレーニングラベルが反対に変更された場合、その予測が同じになるという認証を含んでいる。
ランダム化平滑化は、以前は、分類器への入力の逆操作に対して、高い確率でテスト時の堅牢性を保証するために用いられてきた。
さらに、標準分類よりもランタイムの複雑さが最小限に抑えられ、列車やテスト分布の仮定が不要な、これらの認定境界を得る。
その結果をマルチクラスケースに一般化し,ラベルフリッピング攻撃に頑健な,最初のマルチクラス分類アルゴリズムを提供する。
関連論文リスト
- Probabilistic Safety Regions Via Finite Families of Scalable Classifiers [2.431537995108158]
監視された分類は、データのパターンを認識して、振る舞いのクラスを分離する。
正準解は、機械学習の数値近似の性質に固有の誤分類誤差を含む。
本稿では,確率論的安全性領域の概念を導入し,入力空間のサブセットとして,誤分類されたインスタンスの数を確率論的に制御する手法を提案する。
論文 参考訳(メタデータ) (2023-09-08T22:40:19Z) - Understanding Noise-Augmented Training for Randomized Smoothing [14.061680807550722]
ランダムスムーシング(Randomized smoothing)は、敵攻撃に対する証明可能な堅牢性を保証する技術である。
より強い分布仮定を作らずに、雑音増強の訓練を受けた予測者から利益を期待できないことを示す。
本分析は, ランダム化平滑化の実践的展開に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-05-08T14:46:34Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Beyond cross-entropy: learning highly separable feature distributions
for robust and accurate classification [22.806324361016863]
本稿では, 対角的ロバスト性を提供する, ディープロバストなマルチクラス分類器を訓練するための新しい手法を提案する。
提案手法に基づく潜在空間の正則化は,優れた分類精度が得られることを示す。
論文 参考訳(メタデータ) (2020-10-29T11:15:17Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Robustness Verification for Classifier Ensembles [3.5884936187733394]
堅牢性チェック問題は、ランダムな攻撃が存在するかどうかに関わらず、分類器とラベル付きデータセットのセットを与えられた評価によって成る。
問題のNP硬度を示し、最適なランダム化攻撃を形成するのに十分な攻撃数に上限を与える。
プロトタイプ実装では、画像分類タスクのために訓練された複数のニューラルネットワークアンサンブルを検証する。
論文 参考訳(メタデータ) (2020-05-12T07:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。