論文の概要: Show Me Your Code! Kill Code Poisoning: A Lightweight Method Based on Code Naturalness
- arxiv url: http://arxiv.org/abs/2502.15830v1
- Date: Thu, 20 Feb 2025 06:53:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:59:38.959069
- Title: Show Me Your Code! Kill Code Poisoning: A Lightweight Method Based on Code Naturalness
- Title(参考訳): コードを見せて! コード中毒をなくす - コードの自然性に基づいた軽量な方法
- Authors: Weisong Sun, Yuchen Chen, Mengzhe Yuan, Chunrong Fang, Zhenpeng Chen, Chong Wang, Yang Liu, Baowen Xu, Zhenyu Chen,
- Abstract要約: 我々はKillBadCodeというコード中毒検出のための革新的な軽量な手法を提案する。
KillBadCodeは、コード中毒がコードの自然性を損なうという私たちの洞察に基づいて設計されています。
2つのコード中毒攻撃と4つのコードインテリジェンスタスクの実験結果は、KillBadCodeが4つのベースラインを大幅に上回っていることを示している。
- 参考スコア(独自算出の注目度): 22.754585718123874
- License:
- Abstract: Neural code models (NCMs) have demonstrated extraordinary capabilities in code intelligence tasks. Meanwhile, the security of NCMs and NCMs-based systems has garnered increasing attention. In particular, NCMs are often trained on large-scale data from potentially untrustworthy sources, providing attackers with the opportunity to manipulate them by inserting crafted samples into the data. This type of attack is called a code poisoning attack (also known as a backdoor attack). It allows attackers to implant backdoors in NCMs and thus control model behavior, which poses a significant security threat. However, there is still a lack of effective techniques for detecting various complex code poisoning attacks. In this paper, we propose an innovative and lightweight technique for code poisoning detection named KillBadCode. KillBadCode is designed based on our insight that code poisoning disrupts the naturalness of code. Specifically, KillBadCode first builds a code language model (CodeLM) on a lightweight $n$-gram language model. Then, given poisoned data, KillBadCode utilizes CodeLM to identify those tokens in (poisoned) code snippets that will make the code snippets more natural after being deleted as trigger tokens. Considering that the removal of some normal tokens in a single sample might also enhance code naturalness, leading to a high false positive rate (FPR), we aggregate the cumulative improvement of each token across all samples. Finally, KillBadCode purifies the poisoned data by removing all poisoned samples containing the identified trigger tokens. The experimental results on two code poisoning attacks and four code intelligence tasks demonstrate that KillBadCode significantly outperforms four baselines. More importantly, KillBadCode is very efficient, with a minimum time consumption of only 5 minutes, and is 25 times faster than the best baseline on average.
- Abstract(参考訳): ニューラルコードモデル(NCM)は、コードインテリジェンスタスクにおいて異常な能力を示した。
一方、NCMやNCMベースのシステムのセキュリティは、ますます注目を集めている。
特に、NCMは、潜在的に信頼できない情報源からの大規模なデータに基づいて訓練され、攻撃者がデータに人工的なサンプルを挿入してそれらを操作する機会を提供する。
このタイプの攻撃は、コード中毒攻撃(バックドア攻撃とも呼ばれる)と呼ばれる。
攻撃者はNCMにバックドアを埋め込むことができ、モデル動作を制御することができる。
しかし、様々な複雑なコード中毒攻撃を検出する効果的な技術がまだ不足している。
本稿では,KillBadCodeというコード中毒検出手法を提案する。
KillBadCodeは、コード中毒がコードの自然性を損なうという私たちの洞察に基づいて設計されています。
具体的には、KillBadCodeはまず、軽量な$n$-gram言語モデルに基づいて、コード言語モデル(CodeLM)を構築する。
次に、有毒なデータが与えられた場合、KillBadCodeはCodeLMを使用して、トリガートークンとして削除された後、コードスニペットをより自然なものにする(ポゾンされた)コードスニペット内のトークンを識別する。
単一サンプルにおける通常のトークンの除去は、コード自然性を高める可能性もあり、高い偽陽性率(FPR)につながる可能性があることから、各トークンの累積的改善を全サンプルに集約する。
最後に、KilBadCodeは、特定されたトリガートークンを含むすべての有毒なサンプルを除去することで、有毒なデータを浄化する。
2つのコード中毒攻撃と4つのコードインテリジェンスタスクの実験結果は、KillBadCodeが4つのベースラインを大幅に上回っていることを示している。
さらに重要なのは、KillBadCodeは非常に効率的で、最小使用時間はわずか5分で、平均して最高のベースラインの25倍高速です。
関連論文リスト
- RedCode: Risky Code Execution and Generation Benchmark for Code Agents [50.81206098588923]
RedCodeはリスクの高いコード実行と生成のためのベンチマークである。
RedCode-Execは、危険なコード実行につながる可能性のある、挑戦的なプロンプトを提供する。
RedCode-Genは160のプロンプトに関数シグネチャとドキュメントを入力として提供し、コードエージェントが命令に従うかどうかを評価する。
論文 参考訳(メタデータ) (2024-11-12T13:30:06Z) - CodePurify: Defend Backdoor Attacks on Neural Code Models via Entropy-based Purification [19.570958294967536]
バックドアアタックは、多くのソフトウェアエンジニアリングタスクにおいて、100%近いアタック成功率を達成することができます。
エントロピーに基づく浄化を通じて,コードモデルに対するバックドア攻撃に対する新たな防御法であるCodePurifyを提案する。
我々は、CodePurifyを3つの代表的なタスクと2つの人気のあるコードモデルにわたる4つの高度なバックドア攻撃に対して広範囲に評価した。
論文 参考訳(メタデータ) (2024-10-26T10:17:50Z) - Eliminating Backdoors in Neural Code Models for Secure Code Understanding [24.053091055319562]
ニューラルコードモデル(NCM)は、欠陥検出など、さまざまなコード理解タスクに広く使用されている。
バックドアのNCMは通常、通常のコードスニペット/クリーンコードスニペットで機能するが、毒されたコードスニペットで敵対的に予測される振る舞いを示す。
逆エンジニアリングと未学習のバックドアトリガによってNCMのバックドアを除去するEliBadCodeを提案する。
論文 参考訳(メタデータ) (2024-08-08T08:23:03Z) - Does Your Neural Code Completion Model Use My Code? A Membership Inference Approach [66.51005288743153]
本稿では,現在のニューラルコード補完モデルの法的および倫理的問題について考察する。
私たちは、もともと分類タスクのために作られたメンバシップ推論アプローチ(CodeMIと呼ばれる)を調整します。
我々は,この適応型アプローチの有効性を,多種多様なニューラルコード補完モデルで評価した。
論文 参考訳(メタデータ) (2024-04-22T15:54:53Z) - Zero-Shot Detection of Machine-Generated Codes [83.0342513054389]
本研究は,LLMの生成したコードを検出するためのトレーニング不要な手法を提案する。
既存のトレーニングベースまたはゼロショットテキスト検出装置は、コード検出に効果がないことがわかった。
本手法は,リビジョン攻撃に対する堅牢性を示し,Javaコードによく適応する。
論文 参考訳(メタデータ) (2023-10-08T10:08:21Z) - Vulnerabilities in AI Code Generators: Exploring Targeted Data Poisoning
Attacks [9.386731514208149]
本研究では、AIコードジェネレータのセキュリティを、ターゲットとするデータ中毒戦略を考案することによって調査する。
セキュリティ脆弱性を含むコードの量を増やしてトレーニングデータを汚染します。
私たちの研究は、AIコードジェネレータが少量の毒にも弱いことを示しています。
論文 参考訳(メタデータ) (2023-08-04T15:23:30Z) - Poison Attack and Defense on Deep Source Code Processing Models [38.32413592143839]
我々は、CodePoisonerという名前のソースコードに対して、強力な想像上の敵として毒攻撃フレームワークを提示する。
CodePoisonerは、人間の知覚できない毒のサンプルをコンパイルして、トレーニングデータに毒を加えて攻撃する。
トレーニングデータ中の毒サンプルを検出するために,CodeDetectorという効果的な防御手法を提案する。
論文 参考訳(メタデータ) (2022-10-31T03:06:40Z) - Tackling Long Code Search with Splitting, Encoding, and Aggregating [67.02322603435628]
長いコード検索のための新しいベースラインSEA(Split, Encode, Aggregate)を提案する。
長いコードをコードブロックに分割し、これらのブロックを埋め込みにエンコードし、それらを集約して包括的な長いコード表現を得る。
エンコーダとしてGraphCodeBERTを使用すると、SEAはコードSearchNetベンチマークでGraphCodeBERTよりも10.1%高い0.785という総合的な平均逆ランキングスコアを達成する。
論文 参考訳(メタデータ) (2022-08-24T02:27:30Z) - CodeAttack: Code-Based Adversarial Attacks for Pre-trained Programming
Language Models [8.832864937330722]
我々は、コード構造を用いて、効果的で効率的で、知覚不能なコードサンプルを生成する、単純で効果的なブラックボックス攻撃モデルであるCodeAttackを提案する。
プログラム言語間でのコード-コード(翻訳と修復)およびコード-NL(要約)タスクにおけるCodeAttackの転送性を評価する。
論文 参考訳(メタデータ) (2022-05-31T18:40:01Z) - PoisonedEncoder: Poisoning the Unlabeled Pre-training Data in
Contrastive Learning [69.70602220716718]
コントラスト学習のためのデータ中毒攻撃であるPoisonedEncoderを提案する。
特に、攻撃者は未ラベルの事前訓練データに慎重に毒を盛った入力を注入する。
我々は,PoisonedEncoderに対する5つの防御効果を評価し,前処理が1つ,内処理が3つ,後処理が1つであった。
論文 参考訳(メタデータ) (2022-05-13T00:15:44Z) - MetaPoison: Practical General-purpose Clean-label Data Poisoning [58.13959698513719]
データ中毒は、ニューラルネットワークの文脈における新たな脅威である。
メタポゾン(MetaPoison)は、メタラーニングによって二段階問題を近似し、ニューラルネットワークを騙す毒を発生させる一階法である。
ブラックボックスのGoogle Cloud AutoML APIでトレーニングされたモデルのデータ中毒が、初めて成功したことを実証します。
論文 参考訳(メタデータ) (2020-04-01T04:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。