論文の概要: Hindering Adversarial Attacks with Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2210.13982v1
- Date: Sat, 22 Oct 2022 13:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 16:00:08.148509
- Title: Hindering Adversarial Attacks with Implicit Neural Representations
- Title(参考訳): 意図しない神経表現による敵攻撃の抑制
- Authors: Andrei A. Rusu, Dan A. Calian, Sven Gowal, Raia Hadsell
- Abstract要約: Lossy Implicit Network Activation Coding (LINAC) の防衛は、いくつかの共通の敵攻撃を妨害する。
鍵ベース防衛のためのパラメトリックバイパス近似(PBA)攻撃戦略を考案し,このカテゴリにおける既存手法の無効化に成功した。
- 参考スコア(独自算出の注目度): 25.422201099331637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Lossy Implicit Network Activation Coding (LINAC) defence, an
input transformation which successfully hinders several common adversarial
attacks on CIFAR-$10$ classifiers for perturbations up to $\epsilon = 8/255$ in
$L_\infty$ norm and $\epsilon = 0.5$ in $L_2$ norm. Implicit neural
representations are used to approximately encode pixel colour intensities in
$2\text{D}$ images such that classifiers trained on transformed data appear to
have robustness to small perturbations without adversarial training or large
drops in performance. The seed of the random number generator used to
initialise and train the implicit neural representation turns out to be
necessary information for stronger generic attacks, suggesting its role as a
private key. We devise a Parametric Bypass Approximation (PBA) attack strategy
for key-based defences, which successfully invalidates an existing method in
this category. Interestingly, our LINAC defence also hinders some transfer and
adaptive attacks, including our novel PBA strategy. Our results emphasise the
importance of a broad range of customised attacks despite apparent robustness
according to standard evaluations. LINAC source code and parameters of defended
classifier evaluated throughout this submission are available:
https://github.com/deepmind/linac
- Abstract(参考訳): 我々は、Lossy Implicit Network Activation Coding (LINAC) ディフェンスを導入し、CIFARに対するいくつかの共通の逆攻撃をうまく妨害する入力変換を、最大$\epsilon = 8/255$ in $L_\infty$ norm と $\epsilon = 0.5$ in $L_2$ norm で導入する。
暗黙的ニューラルネットワーク表現は、2\text{d}$イメージのピクセル色強度を近似的にエンコードするために使われ、変換されたデータで訓練された分類器は、逆のトレーニングや大きなパフォーマンス低下なしに小さな摂動に対して頑健であるように見える。
暗黙の神経表現を初期化し、訓練するために使用される乱数生成器のシードは、強力な汎用攻撃に必要な情報であることが判明し、秘密鍵としての役割を示唆している。
鍵ベース防衛のためのパラメトリックバイパス近似(PBA)攻撃戦略を考案し,このカテゴリの既存手法の無効化に成功した。
興味深いことに、我々のLINAC防衛は、新しいPBA戦略を含むいくつかの移動および適応攻撃を妨げる。
本研究は,標準評価による頑健さに拘わらず,幅広いカスタマイズされた攻撃の重要性を強調した。
LINACソースコードと、この提出を通じて評価された保護された分類器のパラメータが利用可能である。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Robust width: A lightweight and certifiable adversarial defense [0.0]
逆例は、モデルが誤った予測や分類を行うように意図的に構築される。
本研究では,最近圧縮センシングに導入された頑健な幅特性(RWP)に基づく対角防御について検討する。
本稿では、RWPに基づく特定の入力浄化方式により、ほぼスパースな画像に対して理論的ロバスト性を保証することを示す。
論文 参考訳(メタデータ) (2024-05-24T22:50:50Z) - DeepNcode: Encoding-Based Protection against Bit-Flip Attacks on Neural Networks [4.734824660843964]
ニューラルネットワークに対するビットフリップ攻撃に対する符号化に基づく保護手法について,DeepNcodeと題して紹介する。
この結果、保護マージンが最大で$4-$bitが$7.6times、$2.4timesが$8-$bitの量子化ネットワークで$12.4timesになることが示された。
論文 参考訳(メタデータ) (2024-05-22T18:01:34Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Post-Training Detection of Backdoor Attacks for Two-Class and
Multi-Attack Scenarios [22.22337220509128]
バックドア攻撃(BA)は、ディープニューラルネットワーク分類器に対する新たな脅威である。
本稿では,BPリバースエンジニアリングに基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T22:21:38Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Are L2 adversarial examples intrinsically different? [14.77179227968466]
理論的解析により、本質的に逆例と正規入力を区別できる性質を解明する。
我々は,MNISTで最大99%,CIFARで89%,ImageNetサブセットで最大87%の分類精度を,$L$攻撃に対して達成した。
論文 参考訳(メタデータ) (2020-02-28T03:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。