論文の概要: Adversarial Boot Camp: label free certified robustness in one epoch
- arxiv url: http://arxiv.org/abs/2010.02508v1
- Date: Mon, 5 Oct 2020 13:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 20:03:35.157835
- Title: Adversarial Boot Camp: label free certified robustness in one epoch
- Title(参考訳): Adversarial Boot Camp: 1世紀におけるラベルフリー認定ロバスト性
- Authors: Ryan Campbell, Chris Finlay, Adam M Oberman
- Abstract要約: 本稿では,信頼性の高いモデルを実現するための認証手法を提案する。
ラベル情報を使わずに、この損失でモデルを再訓練することで、ImageNet-1k上の認定モデルを実現する。
- 参考スコア(独自算出の注目度): 7.51557557629519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are vulnerable to adversarial attacks. One approach
to addressing this vulnerability is certification, which focuses on models that
are guaranteed to be robust for a given perturbation size. A drawback of recent
certified models is that they are stochastic: they require multiple
computationally expensive model evaluations with random noise added to a given
input. In our work, we present a deterministic certification approach which
results in a certifiably robust model. This approach is based on an equivalence
between training with a particular regularized loss, and the expected values of
Gaussian averages. We achieve certified models on ImageNet-1k by retraining a
model with this loss for one epoch without the use of label information.
- Abstract(参考訳): 機械学習モデルは敵の攻撃に弱い。
この脆弱性に対処する1つのアプローチは、所定の摂動サイズに対して堅牢であることが保証されたモデルに焦点を当てた認証である。
最近の認定モデルの欠点は、それらは確率的であり、与えられた入力にランダムノイズを加えた複数の計算コストの高いモデル評価を必要とすることである。
本研究では,検証可能なロバストモデルを実現する決定論的認証手法を提案する。
このアプローチは、特定の正規化損失を持つトレーニングとガウス平均の期待値との等価性に基づいている。
ラベル情報を用いずに,この損失のあるモデルを再訓練することにより,imagenet-1kの認証モデルを実現する。
関連論文リスト
- Mixing Classifiers to Alleviate the Accuracy-Robustness Trade-Off [9.181698729747687]
我々は,従来のモデルから高い精度とロバストモデルから高いロバスト性を同時に継承する分類器を開発するために,近年の「局所バイアススムース化」手法を構築した。
我々は、ロバストベースモデルのロバスト性が証明された場合、閉形式 $ell_p$ 半径内では、入力に対する変更やアタックは、混合分類器の誤分類をもたらすことを証明した。
論文 参考訳(メタデータ) (2023-11-26T02:25:30Z) - Provable Robustness for Streaming Models with a Sliding Window [51.85182389861261]
オンラインコンテンツレコメンデーションや株式市場分析のようなディープラーニングアプリケーションでは、モデルは過去のデータを使って予測を行う。
入力ストリーム上の固定サイズのスライディングウインドウを使用するモデルに対して、ロバスト性証明を導出する。
私たちの保証は、ストリーム全体の平均モデルパフォーマンスを保ち、ストリームサイズに依存しないので、大きなデータストリームに適しています。
論文 参考訳(メタデータ) (2023-03-28T21:02:35Z) - Effective Robustness against Natural Distribution Shifts for Models with
Different Training Data [113.21868839569]
効果的ロバスト性」は、分配内(ID)性能から予測できる以上の余分な分配外ロバスト性を測定する。
異なるデータに基づいてトレーニングされたモデルの有効ロバスト性を評価・比較するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-02-02T19:28:41Z) - MEGA: Model Stealing via Collaborative Generator-Substitute Networks [4.065949099860426]
近年のデータフリーモデルステイティングメソッドは,実際のクエリの例を使わずに,ターゲットモデルの知識を抽出するために有効であることが示されている。
本稿では,データフリーモデルステーリングフレームワーク(MEGA)を提案する。
以上の結果から,我々の訓練した代替モデルの精度と敵攻撃成功率は,最先端のデータフリーブラックボックス攻撃よりも最大で33%,40%高い値となる可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-31T09:34:28Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Learnable Boundary Guided Adversarial Training [66.57846365425598]
私たちは、あるクリーンモデルからのモデルロジットを使用して、別のロバストモデルの学習をガイドします。
我々は、CIFAR-100上で、追加の実データや合成データなしで、新しい最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2020-11-23T01:36:05Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Trade-offs between membership privacy & adversarially robust learning [13.37805637358556]
標準モデルがロバストモデルよりもはるかに過度に適合する設定を特定します。
オーバーフィッティングの度合いは、トレーニングに利用可能なデータの量に依存する。
論文 参考訳(メタデータ) (2020-06-08T14:20:12Z) - Deep k-NN for Noisy Labels [55.97221021252733]
予備モデルのロジット層上での単純な$k$-nearest近傍フィルタリング手法により、ラベルの誤りを除去し、最近提案された多くの手法よりも正確なモデルを生成することができることを示す。
論文 参考訳(メタデータ) (2020-04-26T05:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。