論文の概要: Cutting through buggy adversarial example defenses: fixing 1 line of code breaks Sabre
- arxiv url: http://arxiv.org/abs/2405.03672v1
- Date: Mon, 6 May 2024 17:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 12:46:34.789778
- Title: Cutting through buggy adversarial example defenses: fixing 1 line of code breaks Sabre
- Title(参考訳): バグの多い敵の例の防御を切断する:コードの1行の修正がSabreを破る
- Authors: Nicholas Carlini,
- Abstract要約: SabreはIEEE S&P 2024で受け入れられた敵の例に対する防御である。
元のリポジトリにある1行のコードを修正することで、Sabreの堅牢な精度を0%に削減します。
しかし、この修正には2つ目のバグが含まれている。もう1行のコードを変更することで、ロバストな精度がベースラインレベル以下に低下する。
- 参考スコア(独自算出の注目度): 64.55144029671106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sabre is a defense to adversarial examples that was accepted at IEEE S&P 2024. We first reveal significant flaws in the evaluation that point to clear signs of gradient masking. We then show the cause of this gradient masking: a bug in the original evaluation code. By fixing a single line of code in the original repository, we reduce Sabre's robust accuracy to 0%. In response to this, the authors modify the defense and introduce a new defense component not described in the original paper. But this fix contains a second bug; modifying one more line of code reduces robust accuracy to below baseline levels.
- Abstract(参考訳): SabreはIEEE S&P 2024で受け入れられた敵の例に対する防御である。
まず,勾配マスキングの明確な兆候を示す評価の重大な欠陥を明らかにする。
次に、この勾配マスキングの原因を示す:元の評価コードにバグがある。
元のリポジトリにある1行のコードを修正することで、Sabreの堅牢な精度を0%に削減します。
これに対応して、著者らは防御を修正し、原論文に記載されていない新しい防御部品を導入する。
しかし、この修正には2つ目のバグが含まれている。もう1行のコードを変更することで、ロバストな精度がベースラインレベル以下に低下する。
関連論文リスト
- Predicting Likely-Vulnerable Code Changes: Machine Learning-based Vulnerability Protections for Android Open Source Project [0.0]
本稿では,ソースコードの変更に対するセキュリティレビューを選択的にトリガするフレームワークを提案する。
このフレームワークは、コード変更がソースコードリポジトリに送信される前に、コミット前に追加のセキュリティレビューを自動的に要求することができる。
論文 参考訳(メタデータ) (2024-05-26T18:17:46Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Don't sweat the small stuff, classify the rest: Sample Shielding to
protect text classifiers against adversarial attacks [2.512827436728378]
ディープラーニング(DL)はテキスト分類に広く使われている。
攻撃者は、元の意味をそのままに保ちながら、分類器を誤解させる方法でテキストを変更する。
サンプルシールドという,新規で直感的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-05-03T18:24:20Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z) - A Partial Break of the Honeypots Defense to Catch Adversarial Attacks [57.572998144258705]
検出正の正の率を0%、検出AUCを0.02に下げることで、この防御のベースラインバージョンを破る。
さらなる研究を支援するため、攻撃プロセスの2.5時間のキーストローク・バイ・キーストロークスクリーンをhttps://nicholas.carlini.com/code/ccs_honeypot_breakで公開しています。
論文 参考訳(メタデータ) (2020-09-23T07:36:37Z) - Contrastive Code Representation Learning [95.86686147053958]
一般的な再構成に基づくBERTモデルは,ソースコードの編集に敏感であることを示す。
コントラコード(ContraCode)は、コード機能を学ぶのにフォームではなく、コントラスト的な事前学習タスクである。
論文 参考訳(メタデータ) (2020-07-09T17:59:06Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Robust and Accurate Authorship Attribution via Program Normalization [24.381734600088453]
ソースコード帰属アプローチは、ディープラーニングの急速な進歩により、驚くほどの精度を実現している。
特に、他の作者の偽作を作ろうとする敵や、原作者を偽装しようとする敵に騙されやすい。
我々は、理論上、著者帰属アプローチの堅牢性を保証する新しい学習フレームワークである$textitnormalize-and-predict$(textitN&P$)を提案する。
論文 参考訳(メタデータ) (2020-07-01T21:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。