論文の概要: Robustly-reliable learners under poisoning attacks
- arxiv url: http://arxiv.org/abs/2203.04160v1
- Date: Tue, 8 Mar 2022 15:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 14:21:41.049574
- Title: Robustly-reliable learners under poisoning attacks
- Title(参考訳): 毒殺事件で無防備な学習者
- Authors: Maria-Florina Balcan, Avrim Blum, Steve Hanneke, Dravyansh Sharma
- Abstract要約: 複数の軸にまたがる攻撃に直面して強靭性を保証する方法を示す。
我々は、敵が所定の汚職予算を超過していない限り、予測されたラベルが正しいことが保証される、信頼性の高い予測を提供する。
注目すべきは、この設定における学習可能性の完全な特徴付け、特に、認定可能な領域上の上と下の境界にほぼ整合するものである。
- 参考スコア(独自算出の注目度): 38.55373038919402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data poisoning attacks, in which an adversary corrupts a training set with
the goal of inducing specific desired mistakes, have raised substantial
concern: even just the possibility of such an attack can make a user no longer
trust the results of a learning system. In this work, we show how to achieve
strong robustness guarantees in the face of such attacks across multiple axes.
We provide robustly-reliable predictions, in which the predicted label is
guaranteed to be correct so long as the adversary has not exceeded a given
corruption budget, even in the presence of instance targeted attacks, where the
adversary knows the test example in advance and aims to cause a specific
failure on that example. Our guarantees are substantially stronger than those
in prior approaches, which were only able to provide certificates that the
prediction of the learning algorithm does not change, as opposed to certifying
that the prediction is correct, as we are able to achieve in our work.
Remarkably, we provide a complete characterization of learnability in this
setting, in particular, nearly-tight matching upper and lower bounds on the
region that can be certified, as well as efficient algorithms for computing
this region given an ERM oracle. Moreover, for the case of linear separators
over logconcave distributions, we provide efficient truly polynomial time
algorithms (i.e., non-oracle algorithms) for such robustly-reliable
predictions.
We also extend these results to the active setting where the algorithm
adaptively asks for labels of specific informative examples, and the difficulty
is that the adversary might even be adaptive to this interaction, as well as to
the agnostic learning setting where there is no perfect classifier even over
the uncorrupted data.
- Abstract(参考訳): データ中毒攻撃(Data poisoning attack)とは、特定の所望の誤りを誘発する目的でトレーニングセットを破損させる攻撃であり、そのような攻撃の可能性さえも、学習システムの結果を信頼できなくなる。
本稿では,複数の軸にまたがる攻撃に対して,強固なロバスト性を保証する方法を示す。
我々は、敵が所定の汚職予算を超えない限り、敵が事前にテスト例を知っており、その例に特定の失敗を起こそうとしている場合であっても、予測されたラベルが正しいことが保証されるロバストで信頼性の高い予測を提供する。
我々の保証は、我々の研究で達成できるように、予測が正しいことを証明するのとは対照的に、学習アルゴリズムの予測が変化しない証明書しか提供できなかった以前のアプローチよりも大幅に強力である。
注目すべきは、この設定における学習可能性の完全な特徴付け、特に、認証可能な領域の上と下の境界をほぼ整合させ、ERMオラクルを与えられた領域を計算するための効率的なアルゴリズムを提供することである。
さらに、対数凹分布上の線形セパレータの場合、そのような堅牢な信頼性のある予測に対して効率的な真の多項式時間アルゴリズム(非オラクルアルゴリズム)を提供する。
また,アルゴリズムが特定の情報的サンプルのラベルを適応的に求めているアクティブな設定にまで拡張する。また,この相互作用に敵が適応している可能性や,不正確なデータでも完全分類器が存在しないような不可知学習環境にも,困難が伴う。
関連論文リスト
- Adversarial Attacks Against Uncertainty Quantification [10.655660123083607]
この研究は、攻撃者が依然として不確実性推定を操作することに興味を持つ異なる敵シナリオに焦点を当てる。
特に、アウトプットが下流モジュールや人間のオペレータによって消費される場合、機械学習モデルの使用を損なうことが目標である。
論文 参考訳(メタデータ) (2023-09-19T12:54:09Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Domain Knowledge Alleviates Adversarial Attacks in Multi-Label
Classifiers [34.526394646264734]
機械学習に基づく分類器に対する敵対的攻撃は、防御機構とともに、広く研究されている。
本稿では,ドメイン知識の活用が不整合予測の自然な方法となり得るマルチラベル分類に注目を向ける。
この直感を,一階述語論理知識を制約に変換し,半教師付き学習問題に注入する枠組みで検討する。
論文 参考訳(メタデータ) (2020-06-06T10:24:54Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。