論文の概要: A Partial Break of the Honeypots Defense to Catch Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2009.10975v1
- Date: Wed, 23 Sep 2020 07:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:57:15.825409
- Title: A Partial Break of the Honeypots Defense to Catch Adversarial Attacks
- Title(参考訳): 敵の攻撃をキャッチするハニーポットの防御の部分的破壊
- Authors: Nicholas Carlini
- Abstract要約: 検出正の正の率を0%、検出AUCを0.02に下げることで、この防御のベースラインバージョンを破る。
さらなる研究を支援するため、攻撃プロセスの2.5時間のキーストローク・バイ・キーストロークスクリーンをhttps://nicholas.carlini.com/code/ccs_honeypot_breakで公開しています。
- 参考スコア(独自算出の注目度): 57.572998144258705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent defense proposes to inject "honeypots" into neural networks in order
to detect adversarial attacks. We break the baseline version of this defense by
reducing the detection true positive rate to 0\% and the detection AUC to 0.02,
maintaining the original distortion bounds. The authors of the original paper
have amended the defense in their CCS'20 paper to mitigate this attacks. To aid
further research, we release the complete 2.5 hour keystroke-by-keystroke
screen recording of our attack process at
https://nicholas.carlini.com/code/ccs_honeypot_break.
- Abstract(参考訳): 最近の防衛では、敵の攻撃を検出するために、ニューラルネットワークに"Honeypots"を注入することを提案している。
我々は,検出真正率を0\%,検出aucを0.02に下げ,元の歪み境界を維持して,この防御のベースラインバージョンを破る。
オリジナルの論文の著者は、この攻撃を緩和するためにCCS'20紙の防衛を修正した。
さらなる研究を支援するために、我々は攻撃プロセスをhttps://nicholas.carlini.com/code/ccs_honeypot_breakで記録する2.5時間のキーストローク・バイ・キーストロークスクリーンをリリースする。
関連論文リスト
- Diffusion Denoising as a Certified Defense against Clean-label Poisoning [56.04951180983087]
本稿では,市販の拡散モデルを用いて,改ざんしたトレーニングデータを浄化する方法を示す。
7件のクリーンラベル中毒に対する我々の防御を広範囲に検証し、その攻撃成功率を0-16%に抑え、テスト時間の精度は無視できない程度に低下した。
論文 参考訳(メタデータ) (2024-03-18T17:17:07Z) - Beating Backdoor Attack at Its Own Game [10.131734154410763]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
既存の防御方法は、攻撃の成功率を大幅に低下させた。
有害な試料を標的とした非敵のバックドアを注入する高効率な枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-28T13:07:42Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - PECAN: A Deterministic Certified Defense Against Backdoor Attacks [17.0639534812572]
PECANは,バックドア攻撃に対する効果的かつ認証されたアプローチである。
PECANを画像分類とマルウェア検出データセットで評価する。
論文 参考訳(メタデータ) (2023-01-27T16:25:43Z) - Defending Against Stealthy Backdoor Attacks [1.6453255188693543]
近年の研究では,ナチュラル言語処理(NLP)モデルに対する攻撃は困難ではないことが示されている。
本研究では,このような攻撃に対して有効な防衛戦略をいくつか提示する。
論文 参考訳(メタデータ) (2022-05-27T21:38:42Z) - HaS-Nets: A Heal and Select Mechanism to Defend DNNs Against Backdoor
Attacks for Data Collection Scenarios [23.898803100714957]
ロー信頼バックドア攻撃」は、有毒な訓練サンプルに割り当てられた信頼ラベルを悪用する。
HaS-Nets"はデータセットから独立して、AISを90%以上から15%未満に削減することができる。
論文 参考訳(メタデータ) (2020-12-14T12:47:41Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z) - On Certifying Robustness against Backdoor Attacks via Randomized
Smoothing [74.79764677396773]
ランダム化平滑化法(ランダム化平滑化)と呼ばれる最近の手法を用いて,バックドア攻撃に対するロバスト性検証の有効性と有効性を検討した。
本研究は, バックドア攻撃に対するロバスト性を証明するために, ランダムな平滑化を用いた理論的実現可能性を示すものである。
既存の無作為な平滑化手法は、バックドア攻撃に対する防御効果に限界がある。
論文 参考訳(メタデータ) (2020-02-26T19:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。