論文の概要: An Extensive Study on Adversarial Attack against Pre-trained Models of
Code
- arxiv url: http://arxiv.org/abs/2311.07553v2
- Date: Thu, 23 Nov 2023 11:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 02:11:10.826706
- Title: An Extensive Study on Adversarial Attack against Pre-trained Models of
Code
- Title(参考訳): 事前学習されたコードモデルに対する敵意攻撃に関する広範囲研究
- Authors: Xiaohu Du, Ming Wen, Zichao Wei, Shangwen Wang, Hai Jin
- Abstract要約: Transformer-based pre-trained code (PTMC) は広く利用されており、多くのミッションクリティカルなアプリケーションで最先端のパフォーマンスを実現している。
識別子の置換やコーディングスタイルの変換によって、敵の攻撃に弱い可能性がある。
本研究は,5つの対人攻撃アプローチを3つの観点から体系的に分析する。
- 参考スコア(独自算出の注目度): 14.948361027395748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer-based pre-trained models of code (PTMC) have been widely utilized
and have achieved state-of-the-art performance in many mission-critical
applications. However, they can be vulnerable to adversarial attacks through
identifier substitution or coding style transformation, which can significantly
degrade accuracy and may further incur security concerns. Although several
approaches have been proposed to generate adversarial examples for PTMC, the
effectiveness and efficiency of such approaches, especially on different code
intelligence tasks, has not been well understood. To bridge this gap, this
study systematically analyzes five state-of-the-art adversarial attack
approaches from three perspectives: effectiveness, efficiency, and the quality
of generated examples. The results show that none of the five approaches
balances all these perspectives. Particularly, approaches with a high attack
success rate tend to be time-consuming; the adversarial code they generate
often lack naturalness, and vice versa. To address this limitation, we explore
the impact of perturbing identifiers under different contexts and find that
identifier substitution within for and if statements is the most effective.
Based on these findings, we propose a new approach that prioritizes different
types of statements for various tasks and further utilizes beam search to
generate adversarial examples. Evaluation results show that it outperforms the
state-of-the-art ALERT in terms of both effectiveness and efficiency while
preserving the naturalness of the generated adversarial examples.
- Abstract(参考訳): Transformer-based pre-trained code (PTMC)は、多くのミッションクリティカルなアプリケーションで最先端のパフォーマンスを実現している。
しかし、識別子置換やコーディングスタイル変換による敵攻撃に対して脆弱であり、精度を著しく低下させ、さらにセキュリティ上の懸念を生じさせる可能性がある。
PTMCの逆例を生成するためのいくつかの手法が提案されているが、このような手法の有効性と効率性は、特に異なるコードインテリジェンスタスクにおいてよく理解されていない。
このギャップを埋めるために,本研究では,5つの最先端の敵攻撃アプローチを,有効性,効率,生成例の品質という3つの視点から体系的に分析した。
結果は、5つのアプローチのいずれもこれらの観点のバランスが取れていないことを示している。
特に攻撃成功率の高いアプローチは、時間を要する傾向がある。
この制限に対処するために、異なるコンテキスト下で識別子を摂動させることの影響を調べ、forおよびif文内の識別子置換が最も効果的であることを示す。
そこで本研究では,様々なタスクに対して異なる種類の文を優先し,さらにビーム探索を用いて逆例を生成する新しい手法を提案する。
評価結果から, ALERTは, 実例の自然性を保ちながら, 有効性と効率の両面で高い性能を示した。
関連論文リスト
- Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - MEAD: A Multi-Armed Approach for Evaluation of Adversarial Examples
Detectors [24.296350262025552]
いくつかの攻撃戦略に基づいて検知器を評価するための新しいフレームワークMEADを提案する。
そのうちの1つは、攻撃を起こすための3つの新しい目的である。
提案したパフォーマンス指標は最悪のシナリオに基づいている。
論文 参考訳(メタデータ) (2022-06-30T17:05:45Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。