論文の概要: Binary Classification Under $\ell_0$ Attacks for General Noise
Distribution
- arxiv url: http://arxiv.org/abs/2203.04855v1
- Date: Wed, 9 Mar 2022 16:30:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 16:56:41.062775
- Title: Binary Classification Under $\ell_0$ Attacks for General Noise
Distribution
- Title(参考訳): 一般騒音分布に対する$\ell_0$攻撃下のバイナリ分類
- Authors: Payam Delgosha and Hamed Hassani and Ramtin Pedarsani
- Abstract要約: 悪意のある敵は、特定の規範に縛られるなど、制約された方法でデータに摂動を適用することができる。
トランケーションと呼ばれる非線形成分を用いた分類法を提案する。
ここでは,データサンプルが$sqrtd以上の摂動に制限されている限り,最適な分類誤差をほぼ達成できることを示す。
- 参考スコア(独自算出の注目度): 37.79273138565821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples have recently drawn considerable attention in the field
of machine learning due to the fact that small perturbations in the data can
result in major performance degradation. This phenomenon is usually modeled by
a malicious adversary that can apply perturbations to the data in a constrained
fashion, such as being bounded in a certain norm. In this paper, we study this
problem when the adversary is constrained by the $\ell_0$ norm; i.e., it can
perturb a certain number of coordinates in the input, but has no limit on how
much it can perturb those coordinates. Due to the combinatorial nature of this
setting, we need to go beyond the standard techniques in robust machine
learning to address this problem. We consider a binary classification scenario
where $d$ noisy data samples of the true label are provided to us after
adversarial perturbations. We introduce a classification method which employs a
nonlinear component called truncation, and show in an asymptotic scenario, as
long as the adversary is restricted to perturb no more than $\sqrt{d}$ data
samples, we can almost achieve the optimal classification error in the absence
of the adversary, i.e. we can completely neutralize adversary's effect.
Surprisingly, we observe a phase transition in the sense that using a converse
argument, we show that if the adversary can perturb more than $\sqrt{d}$
coordinates, no classifier can do better than a random guess.
- Abstract(参考訳): 逆の例は最近、データの小さな摂動がパフォーマンスの大幅な低下をもたらすという事実から、機械学習の分野でかなりの注目を集めている。
この現象は通常悪意のある敵によってモデル化され、特定の規範に縛られるような制約された方法でデータに摂動を適用することができる。
本稿では,この問題を,$\ell_0$ノルムに制約されている場合,すなわち,入力の一定数の座標を摂動することができるが,それらの座標を摂動できるかに制限はない。
この設定の組合せの性質のため、この問題に対処するためには、堅牢な機械学習の標準技術を超える必要がある。
我々は,真ラベルのノイズの多いデータサンプルを,逆方向の摂動の後に提示するバイナリ分類シナリオを考察する。
本稿では,非線形成分であるトランザクションを用いた分類法を紹介し,非漸近的シナリオにおいて,逆元が$\sqrt{d}$データサンプル以上の摂動に制限されている限り,逆元が存在しない場合に最適な分類誤差をほぼ達成できることを示す。
驚くべきことに、逆の議論を用いて位相遷移を観察すると、敵が$\sqrt{d}$座標以上を摂動できるなら、分類器はランダムな推測よりはうまくいかない。
関連論文リスト
- Nearly Optimal Algorithms for Contextual Dueling Bandits from Adversarial Feedback [58.66941279460248]
人からのフィードバックから学ぶことは、大言語モデル(LLM)のような生成モデルを調整する上で重要な役割を果たす
本稿では,本問題の領域内モデルについて考察する。-文脈的デュエルバンディットと敵対的フィードバックを併用し,真の嗜好ラベルを敵によって反転させることができる。
本稿では,不確実性重み付き最大推定に基づく頑健なコンテキストデュエルバンドイット(アルゴ)を提案する。
論文 参考訳(メタデータ) (2024-04-16T17:59:55Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Robust Classification Under $\ell_0$ Attack for the Gaussian Mixture
Model [39.414875342234204]
フィルタとトランケーションの2つの主要モジュールを持つFilTrunと呼ばれる新しい分類アルゴリズムを開発した。
敵対的摂動の効果が完全に中和できるかどうかを判断する敵対的予算の段階遷移など、興味深い行動を示すいくつかの例を議論する。
論文 参考訳(メタデータ) (2021-04-05T23:31:25Z) - Hard-label Manifolds: Unexpected Advantages of Query Efficiency for
Finding On-manifold Adversarial Examples [67.23103682776049]
画像分類モデルに対する最近のゼロオーダーのハードラベル攻撃は、ファーストオーダーのグラデーションレベルの代替品に匹敵する性能を示している。
最近、グラデーションレベルの設定では、通常の敵対的な例がデータ多様体から離れ、オンマニホールドの例が実際には一般化エラーであることが示されている。
雑音の多い多様体距離オラクルに基づく情報理論論的議論を提案し、敵の勾配推定を通じて多様体情報を漏洩させる。
論文 参考訳(メタデータ) (2021-03-04T20:53:06Z) - On the Error Resistance of Hinge Loss Minimization [30.808062097285706]
我々は、損失最小化アルゴリズムが正しい分類器を確実に学習するデータ上の条件の集合を同定する。
特に、データがわずかに非自明なマージンで線形に分類可能であれば、サロゲート損失最小化は非破壊データに無視できる誤差を持つことを示す。
論文 参考訳(メタデータ) (2020-12-02T06:49:24Z) - Binary classification with ambiguous training data [69.50862982117127]
教師付き学習では、ドメインの専門家でさえラベル付けが難しい曖昧な(A)サンプルに直面します。
この問題は、ラベルなしサンプルが必ずしも難しいサンプルではないため、半教師付き学習とは大きく異なる。
論文 参考訳(メタデータ) (2020-11-05T00:53:58Z) - Classifier-independent Lower-Bounds for Adversarial Robustness [13.247278149124757]
理論的には、テストタイムの逆数と雑音の分類例に対するロバスト性の限界を解析する。
最適輸送理論を用いて、与えられた分類問題に対して分類器ができるベイズ最適誤差の変分式を導出する。
一般的な距離ベース攻撃の場合,ベイズ最適誤差に対して明らかな下限を導出する。
論文 参考訳(メタデータ) (2020-06-17T16:46:39Z) - A Bayes-Optimal View on Adversarial Examples [9.51828574518325]
ベイズ最適分類の観点から, 対立例を考察する。
これらの「金の標準」最適分類器が堅牢である場合でも、同じデータセットでトレーニングされたCNNは、常に脆弱な分類器を学習する。
論文 参考訳(メタデータ) (2020-02-20T16:43:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。