論文の概要: Analyzing Accuracy Loss in Randomized Smoothing Defenses
- arxiv url: http://arxiv.org/abs/2003.01595v1
- Date: Tue, 3 Mar 2020 15:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 21:58:00.362460
- Title: Analyzing Accuracy Loss in Randomized Smoothing Defenses
- Title(参考訳): ランダム化平滑化防御における精度損失の解析
- Authors: Yue Gao, Harrison Rosenberg, Kassem Fawaz, Somesh Jha, Justin Hsu
- Abstract要約: 逆例は、機械学習アルゴリズムをクリティカルなコンテキストにデプロイする際の関心事である。
予測は、私たちが分類したい入力例にランダムノイズを加えることで滑らかになる。
ノイズレベルによっては, 平滑化による仮説の集合が縮小し, 平滑化後の自然な精度が低下する理由の1つが示唆された。
- 参考スコア(独自算出の注目度): 35.407549905234994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in machine learning (ML) algorithms, especially deep neural
networks (DNNs), have demonstrated remarkable success (sometimes exceeding
human-level performance) on several tasks, including face and speech
recognition. However, ML algorithms are vulnerable to \emph{adversarial
attacks}, such test-time, training-time, and backdoor attacks. In test-time
attacks an adversary crafts adversarial examples, which are specially crafted
perturbations imperceptible to humans which, when added to an input example,
force a machine learning model to misclassify the given input example.
Adversarial examples are a concern when deploying ML algorithms in critical
contexts, such as information security and autonomous driving. Researchers have
responded with a plethora of defenses. One promising defense is
\emph{randomized smoothing} in which a classifier's prediction is smoothed by
adding random noise to the input example we wish to classify. In this paper, we
theoretically and empirically explore randomized smoothing. We investigate the
effect of randomized smoothing on the feasible hypotheses space, and show that
for some noise levels the set of hypotheses which are feasible shrinks due to
smoothing, giving one reason why the natural accuracy drops after smoothing. To
perform our analysis, we introduce a model for randomized smoothing which
abstracts away specifics, such as the exact distribution of the noise. We
complement our theoretical results with extensive experiments.
- Abstract(参考訳): 機械学習(ML)アルゴリズム、特にディープニューラルネットワーク(DNN)の最近の進歩は、顔や音声認識を含むいくつかのタスクにおいて顕著な成功(時には人間レベルのパフォーマンスを超える)を見せている。
しかし、MLアルゴリズムはテスト時間、トレーニング時間、バックドアアタックのような \emph{adversarial attack} に対して脆弱である。
テストタイムアタックでは、敵対的な工芸者は、入力例に追加されると機械学習モデルに与えられた入力例の誤分類を強制する、人間に知覚できない摂動を特殊に作っている。
敵の例は、情報セキュリティや自動運転など、MLアルゴリズムを重要なコンテキストにデプロイする際の懸念点である。
研究者たちは多数の防御策を講じた。
有望な防御の一つは \emph{randomized smoothing} であり、分類したい入力例にランダムノイズを追加して分類器の予測を平滑化させる。
本稿では,ランダムな平滑化を理論的・実験的に検討する。
本研究では,ランダム化平滑化が実現可能な仮説空間に与える影響について検討し,ノイズレベルによっては平滑化によって実現可能な縮小となる仮説の集合が平滑化後に自然精度が低下する理由の一つを示す。
そこで本研究では,ノイズの正確な分布など,特定の特徴を抽象化するランダムな平滑化モデルを提案する。
我々は理論結果を広範な実験で補完する。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Machine Learning needs Better Randomness Standards: Randomised Smoothing
and PRNG-based attacks [14.496582479888765]
攻撃者が一般的に依存するランダム性のみを用いて、機械学習システムに侵入できるかどうかを検討する。
我々は、攻撃者が供給されたランダム性をバックドアして、最大81回まで過大評価または過小評価のロバスト性を証明する、全く新しい攻撃を実演する。
我々は、安全クリティカルでセキュリティクリティカルな機械学習アプリケーションにもっと適するように、乱数テストに関するNISTガイドラインの更新を推奨する。
論文 参考訳(メタデータ) (2023-06-24T19:50:08Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Understanding Noise-Augmented Training for Randomized Smoothing [14.061680807550722]
ランダムスムーシング(Randomized smoothing)は、敵攻撃に対する証明可能な堅牢性を保証する技術である。
より強い分布仮定を作らずに、雑音増強の訓練を受けた予測者から利益を期待できないことを示す。
本分析は, ランダム化平滑化の実践的展開に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-05-08T14:46:34Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Tolerating Adversarial Attacks and Byzantine Faults in Distributed
Machine Learning [12.464625883462515]
敵対的攻撃は、人工知能と機械学習モデルのトレーニング、再訓練、活用を妨害しようとする。
本稿では,敵対的攻撃を防御し,ビザンチン断層を許容する分散学習アルゴリズムParSGDを提案する。
以上の結果から,ParSGDを用いたMLモデルでは,攻撃を受けていないか,ノードのほぼ半数が障害を受けたか,あるいは障害が発生していないか,というような正確な予測が可能であることがわかった。
論文 参考訳(メタデータ) (2021-09-05T07:55:02Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。