論文の概要: Backdooring Neural Code Search
- arxiv url: http://arxiv.org/abs/2305.17506v1
- Date: Sat, 27 May 2023 16:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 18:46:53.463912
- Title: Backdooring Neural Code Search
- Title(参考訳): バックドア型ニューラルコード検索
- Authors: Weisong Sun, Yuchen Chen, Guanhong Tao, Chunrong Fang, Xiangyu Zhang,
Quanjun Zhang, Bin Luo
- Abstract要約: 敵はニューラルコードサーチモデルでバックドアを注入することができる。
本稿では、このような攻撃が実現可能であり、非常にステルス性が高いことを実証する。
我々の攻撃BADCODEは、攻撃をより効果的かつステルス的に、特別なトリガー生成および注入手順を特徴としている。
- 参考スコア(独自算出の注目度): 20.88291603306741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reusing off-the-shelf code snippets from online repositories is a common
practice, which significantly enhances the productivity of software developers.
To find desired code snippets, developers resort to code search engines through
natural language queries. Neural code search models are hence behind many such
engines. These models are based on deep learning and gain substantial attention
due to their impressive performance. However, the security aspect of these
models is rarely studied. Particularly, an adversary can inject a backdoor in
neural code search models, which return buggy or even vulnerable code with
security/privacy issues. This may impact the downstream software (e.g., stock
trading systems and autonomous driving) and cause financial loss and/or
life-threatening incidents. In this paper, we demonstrate such attacks are
feasible and can be quite stealthy. By simply modifying one variable/function
name, the attacker can make buggy/vulnerable code rank in the top 11%. Our
attack BADCODE features a special trigger generation and injection procedure,
making the attack more effective and stealthy. The evaluation is conducted on
two neural code search models and the results show our attack outperforms
baselines by 60%. Our user study demonstrates that our attack is more stealthy
than the baseline by two times based on the F1 score.
- Abstract(参考訳): オンラインリポジトリから既製のコードスニペットを再利用することは、ソフトウェア開発者の生産性を大幅に向上させる一般的なプラクティスである。
望ましいコードスニペットを見つけるために、開発者は自然言語クエリを通じてコード検索エンジンに頼る。
そのため、ニューラルコード検索モデルはそのようなエンジンの背後にある。
これらのモデルはディープラーニングに基づいており、その印象的なパフォーマンスによってかなりの注目を集めています。
しかし、これらのモデルのセキュリティ面はほとんど研究されていない。
特に、敵は、セキュリティやプライバシーの問題でバグや脆弱なコードを返すニューラルコード検索モデルにバックドアを注入することができる。
これは下流のソフトウェア(株式取引システムや自動運転など)に影響を及ぼし、財政的損失や致命的な事故を引き起こす可能性がある。
本稿では,このような攻撃が実現可能であり,極めてステルス性が高いことを示す。
1つの変数/関数名を変更するだけで、攻撃者はバギー/vulnerableのコードランクをトップ11%にすることができる。
我々の攻撃BADCODEは、攻撃をより効果的かつステルス的に、特別なトリガー生成および注入手順を特徴としている。
2つのニューラルコード探索モデルを用いて評価を行い,本攻撃がベースラインを60%上回ることを示した。
ユーザ調査の結果,f1スコアに基づく攻撃はベースラインよりも2倍ステルス性が高いことがわかった。
関連論文リスト
- CodePurify: Defend Backdoor Attacks on Neural Code Models via Entropy-based Purification [19.570958294967536]
バックドアアタックは、多くのソフトウェアエンジニアリングタスクにおいて、100%近いアタック成功率を達成することができます。
エントロピーに基づく浄化を通じて,コードモデルに対するバックドア攻撃に対する新たな防御法であるCodePurifyを提案する。
我々は、CodePurifyを3つの代表的なタスクと2つの人気のあるコードモデルにわたる4つの高度なバックドア攻撃に対して広範囲に評価した。
論文 参考訳(メタデータ) (2024-10-26T10:17:50Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - SoK: A Systematic Evaluation of Backdoor Trigger Characteristics in
Image Classification [21.424907311421197]
ディープラーニングは、トレーニングセットを変更してトレーニングモデルに秘密機能を埋め込むバックドア攻撃に対して脆弱である。
本稿では,バックドア攻撃の最も関連性の高いパラメータを系統的に分析する。
私たちの攻撃は、研究におけるバックドア設定の大部分をカバーし、将来の作業に具体的な方向性を提供します。
論文 参考訳(メタデータ) (2023-02-03T14:00:05Z) - Stealthy Backdoor Attack for Code Models [19.272856932095966]
既存のコードモデルに対するバックドア攻撃では、不便で簡単に検出できるトリガーが使用される。
本稿では、ステルスなバックドア攻撃によるコードモデルの脆弱性を調査することを目的とする。
AFRAIDOORにおけるアダプティブトリガーの約85%が、防衛プロセスにおける検出をバイパスしていることがわかった。
論文 参考訳(メタデータ) (2023-01-06T13:15:42Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - DeepPayload: Black-box Backdoor Attack on Deep Learning Models through
Neural Payload Injection [17.136757440204722]
我々は,コンパイルされたディープラーニングモデルに対して,リバースエンジニアリング技術を用いて,極めて実用的なバックドアアタックを導入する。
注入されたバックドアは93.5%の成功率で起動できるが、遅延オーバーヘッドは2ms以下で精度は1.4%以下である。
人気アプリやセキュリティクリティカルアプリなど、攻撃に対して脆弱な54のアプリが見つかりました。
論文 参考訳(メタデータ) (2021-01-18T06:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。