論文の概要: Erratum Concerning the Obfuscated Gradients Attack on Stochastic
Activation Pruning
- arxiv url: http://arxiv.org/abs/2010.00071v1
- Date: Wed, 30 Sep 2020 19:26:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 22:52:20.677894
- Title: Erratum Concerning the Obfuscated Gradients Attack on Stochastic
Activation Pruning
- Title(参考訳): 確率的活性化pruningに対する難読勾配攻撃に関するerratum
- Authors: Guneet S. Dhillon, Nicholas Carlini
- Abstract要約: アクティベーション・プルーニング (SAP) は「Obfuscated Gradients」紙によって攻撃され破壊された敵の事例に対する防御である。
また,新たなBPDA攻撃手法を用いることで,SAPの精度を0.1%に低下させることができることを示した。
- 参考スコア(独自算出の注目度): 57.95372957406603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic Activation Pruning (SAP) (Dhillon et al., 2018) is a defense to
adversarial examples that was attacked and found to be broken by the
"Obfuscated Gradients" paper (Athalye et al., 2018). We discover a flaw in the
re-implementation that artificially weakens SAP. When SAP is applied properly,
the proposed attack is not effective. However, we show that a new use of the
BPDA attack technique can still reduce the accuracy of SAP to 0.1%.
- Abstract(参考訳): Stochastic Activation Pruning (SAP) (Dhillon et al., 2018) は、「Obfuscated Gradients」紙(Athalye et al., 2018)によって攻撃され破壊された敵の事例に対する防衛である。
人工的にSAPを弱める再実装の欠陥を発見する。
SAPを適切に適用した場合、提案した攻撃は効果がない。
しかし,新たなBPDA攻撃手法を用いることで,SAPの精度を0.1%に低下させることができる。
関連論文リスト
- A Curious Case of Remarkable Resilience to Gradient Attacks via Fully
Convolutional and Differentiable Front End with a Skip Connection [5.030787492485122]
勾配マスキングは新しい現象ではありませんが、マスキングの程度は、完全に微分可能なモデルにとって非常に顕著でした。
ブラックボックス攻撃は勾配マスキングに対して部分的に有効であるが、モデルとランダムなアンサンブルを組み合わせることで容易に打ち負かされる。
論文 参考訳(メタデータ) (2024-02-26T20:55:47Z) - Efficient Trigger Word Insertion [9.257916713112945]
我々の主な目的は、テキストバックドア攻撃において、良好なアタック成功率(ASR)を達成しつつ、有毒なサンプルの数を減らすことである。
トリガー語最適化と有毒なサンプル選択の観点から,効率的なトリガー語挿入戦略を提案する。
提案手法は, 汚れラベル設定で有毒な試料が10個あれば90%以上を達成でき, クリーンラベル設定ではトレーニングデータの1.5%しか必要としない。
論文 参考訳(メタデータ) (2023-11-23T12:15:56Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Fast Adversarial Training with Adaptive Step Size [62.37203478589929]
トレーニングインスタンスの観点から,この現象を考察する。
適応ステップサイズ(ATAS)を用いた逆学習法を提案する。
ATASは、その勾配ノルムに逆比例するインスタンス順応的なステップサイズを学習する。
論文 参考訳(メタデータ) (2022-06-06T08:20:07Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Improving the Transferability of Adversarial Examples with New Iteration
Framework and Input Dropout [8.24029748310858]
本稿では,反復ステップサイズ,摂動数,最大イテレーションの関係を再定義する,新たな勾配反復フレームワークを提案する。
本枠組みでは,DI-TI-MIMの攻撃成功率を容易に向上させる。
さらに,入力ドロップアウトに基づく勾配反復攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T06:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。