論文の概要: RNNS: Representation Nearest Neighbor Search Black-Box Attack on Code
Models
- arxiv url: http://arxiv.org/abs/2305.05896v2
- Date: Sat, 20 May 2023 08:47:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 02:41:06.526294
- Title: RNNS: Representation Nearest Neighbor Search Black-Box Attack on Code
Models
- Title(参考訳): RNNS: コードモデルにおける近隣のブラックボックス攻撃の表現
- Authors: Jie Zhang, Wei Ma, Qiang Hu, Xiaofei Xie, Yves Le Traon, Yang Liu
- Abstract要約: プレトレーニングPLモデルのロバスト性を評価するために,Representation Nearest Neighbor Search (RNNS)を提案する。
RNNSは、実世界のプロジェクトから収集された変数名空間の探索を誘導するために、モデル変更信号を使用する。
6つのコードタスク(クローン検出など)、3つのプログラミング言語(Java、Python、C)、3つの事前訓練されたコードモデル(CodeBERT、GraphCodeBERT、CodeT5)でRNNSを評価する。
- 参考スコア(独自算出の注目度): 33.767141730271085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained code models are mainly evaluated using the in-distribution test
data. The robustness of models, i.e., the ability to handle hard unseen data,
still lacks evaluation. In this paper, we propose a novel search-based
black-box adversarial attack guided by model behaviours for pre-trained
programming language models, named Representation Nearest Neighbor
Search(RNNS), to evaluate the robustness of Pre-trained PL models. Unlike other
black-box adversarial attacks, RNNS uses the model-change signal to guide the
search in the space of the variable names collected from real-world projects.
Specifically, RNNS contains two main steps, 1) indicate which variable (attack
position location) we should attack based on model uncertainty, and 2) search
which adversarial tokens we should use for variable renaming according to the
model behaviour observations. We evaluate RNNS on 6 code tasks (e.g., clone
detection), 3 programming languages (Java, Python, and C), and 3 pre-trained
code models: CodeBERT, GraphCodeBERT, and CodeT5. The results demonstrate that
RNNS outperforms the state-of-the-art black-box attacking methods (MHM and
ALERT) in terms of attack success rate (ASR) and query times (QT). The
perturbation of generated adversarial examples from RNNS is smaller than the
baselines with respect to the number of replaced variables and the variable
length change. Our experiments also show that RNNS is efficient in attacking
the defended models and is useful for adversarial training.
- Abstract(参考訳): 事前学習されたコードモデルは、主に分散テストデータを用いて評価される。
モデルの堅牢性、すなわち、ハードな未確認データを扱う能力は、まだ評価を欠いている。
本稿では,事前学習されたplモデルのロバスト性を評価するために,事前学習されたプログラミング言語モデルに対するモデル行動から誘導される,新たな探索型ブラックボックス攻撃法を提案する。
他のブラックボックスの敵攻撃とは異なり、RNNSは実世界のプロジェクトから収集された可変名の空間での探索を誘導するためにモデルチェンジ信号を使用する。
具体的には、RNNSには2つの主要なステップがある。
1)モデルの不確実性に基づいて攻撃すべき変数(攻撃位置)を示し、
2) モデル行動観測に基づいて, 可変リネームに使用する逆トークンを探索する。
6つのコードタスク(クローン検出など)、3つのプログラミング言語(Java、Python、C)、3つの事前訓練されたコードモデル(CodeBERT、GraphCodeBERT、CodeT5)でRNNSを評価する。
その結果、RNNSは攻撃成功率(ASR)とクエリ時間(QT)において最先端のブラックボックス攻撃法(MHMとALERT)よりも優れていた。
RNNSから生成された逆数例の摂動は、置換変数の数や変数長の変化に関して、ベースラインよりも小さい。
我々の実験は、RNNSが防御されたモデルを攻撃するのに効率的であり、敵の訓練に有用であることも示している。
関連論文リスト
- Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - Variational Sparse Coding with Learned Thresholding [6.737133300781134]
サンプルをしきい値にすることでスパース分布を学習できる変分スパース符号化の新しい手法を提案する。
まず,線形発生器を訓練し,その性能,統計的効率,勾配推定に優れることを示す。
論文 参考訳(メタデータ) (2022-05-07T14:49:50Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Novelty Detection via Contrastive Learning with Negative Data
Augmentation [34.39521195691397]
新規性検出のための新しい生成ネットワークフレームワークを提案する。
我々のモデルは最先端のノベルティ検出器よりも優れている。
我々のモデルは、他の敵ベースノベルティ検出方法と比較して、非敵方式で訓練するためにより安定している。
論文 参考訳(メタデータ) (2021-06-18T07:26:15Z) - Improving Transformation-based Defenses against Adversarial Examples
with First-order Perturbations [16.346349209014182]
研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これにより、ニューラルネットワークベースのインテリジェントシステムに対する潜在的な脅威が露呈する。
本稿では, 対向性強靭性を改善するために, 対向性摂動に対処する手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T06:27:24Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。