論文の概要: Poisoned Source Code Detection in Code Models
- arxiv url: http://arxiv.org/abs/2502.13459v1
- Date: Wed, 19 Feb 2025 06:16:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:00:32.343590
- Title: Poisoned Source Code Detection in Code Models
- Title(参考訳): コードモデルにおけるPisoned Source Code Detection
- Authors: Ehab Ghannoum, Mohammad Ghafari,
- Abstract要約: CodeGarrison(CG)は,有毒なコードサンプルを識別するために,コードの埋め込みに依存するハイブリッドディープラーニングモデルである。
その結果、CGは93.5%の精度でONIONを大きく上回った。
また、未知の攻撃に対してCGの堅牢性をテストし、平均精度は85.6%に達した。
- 参考スコア(独自算出の注目度): 0.09208007322096533
- License:
- Abstract: Deep learning models have gained popularity for conducting various tasks involving source code. However, their black-box nature raises concerns about potential risks. One such risk is a poisoning attack, where an attacker intentionally contaminates the training set with malicious samples to mislead the model's predictions in specific scenarios. To protect source code models from poisoning attacks, we introduce CodeGarrison (CG), a hybrid deep-learning model that relies on code embeddings to identify poisoned code samples. We evaluated CG against the state-of-the-art technique ONION for detecting poisoned samples generated by DAMP, MHM, ALERT, as well as a novel poisoning technique named CodeFooler. Results showed that CG significantly outperformed ONION with an accuracy of 93.5%. We also tested CG's robustness against unknown attacks and achieved an average accuracy of 85.6% in identifying poisoned samples across the four attacks mentioned above.
- Abstract(参考訳): ディープラーニングモデルは、ソースコードを含む様々なタスクを実行することで人気を集めている。
しかし、ブラックボックスの性質は潜在的なリスクへの懸念を引き起こす。
そのようなリスクの1つは中毒攻撃であり、攻撃者は特定のシナリオでモデルの予測を誤解させるために悪意のあるサンプルでトレーニングセットを意図的に汚染する。
ソースコードモデルを害虫攻撃から保護するために,コード埋め込みに依存するハイブリッドディープラーニングモデルであるCodeGarrison(CG)を紹介した。
我々は, DAMP, MHM, ALERT, および CodeFooler による新しい毒物検出技術である OnION に対するCG の評価を行った。
その結果、CGは93.5%の精度でONIONを大きく上回った。
また、未知の攻撃に対するCGの頑健さを検証し、上記の4つの攻撃に対して平均85.6%の精度で有毒なサンプルを同定した。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Vulnerabilities in AI Code Generators: Exploring Targeted Data Poisoning
Attacks [9.386731514208149]
本研究では、AIコードジェネレータのセキュリティを、ターゲットとするデータ中毒戦略を考案することによって調査する。
セキュリティ脆弱性を含むコードの量を増やしてトレーニングデータを汚染します。
私たちの研究は、AIコードジェネレータが少量の毒にも弱いことを示しています。
論文 参考訳(メタデータ) (2023-08-04T15:23:30Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - BadCS: A Backdoor Attack Framework for Code search [28.33043896763264]
我々は,BadCSというコード検索モデルのための新しいバックドアアタックフレームワークを提案する。
BadCSは主に有毒試料生成と再加重知識蒸留を含む2つの成分を含む。
DLベースの4つの一般的なモデルと2つのベンチマークデータセットの実験は、既存のコード検索システムがBadCSによって容易に攻撃されることを示した。
論文 参考訳(メタデータ) (2023-05-09T14:52:38Z) - Poison Attack and Defense on Deep Source Code Processing Models [38.32413592143839]
我々は、CodePoisonerという名前のソースコードに対して、強力な想像上の敵として毒攻撃フレームワークを提示する。
CodePoisonerは、人間の知覚できない毒のサンプルをコンパイルして、トレーニングデータに毒を加えて攻撃する。
トレーニングデータ中の毒サンプルを検出するために,CodeDetectorという効果的な防御手法を提案する。
論文 参考訳(メタデータ) (2022-10-31T03:06:40Z) - DeepPoison: Feature Transfer Based Stealthy Poisoning Attack [2.1445455835823624]
DeepPoisonは、1つの発電機と2つの識別器の斬新な敵対ネットワークです。
DeepPoisonは最先端の攻撃成功率を91.74%まで達成できる。
論文 参考訳(メタデータ) (2021-01-06T15:45:36Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Poison Attacks against Text Datasets with Conditional Adversarially
Regularized Autoencoder [78.01180944665089]
本稿では,自然言語推論(NLI)とテキスト分類システムにおいて致命的な脆弱性を示す。
我々はNLPモデルに対する「バックドア中毒」攻撃を提示する。
論文 参考訳(メタデータ) (2020-10-06T13:03:49Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。