論文の概要: Which Factors Make Code LLMs More Vulnerable to Backdoor Attacks? A Systematic Study
- arxiv url: http://arxiv.org/abs/2506.01825v1
- Date: Mon, 02 Jun 2025 16:07:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.603048
- Title: Which Factors Make Code LLMs More Vulnerable to Backdoor Attacks? A Systematic Study
- Title(参考訳): コードLLMがバックドアアタックに対してより脆弱になる要因は? : 系統的研究
- Authors: Chenyu Wang, Zhou Yang, Yaniv Harel, David Lo,
- Abstract要約: 本研究は, バックドアの有効性に影響する要因を系統的に検討し, 脅威の程度を把握している。
非常に低い毒殺率で攻撃が効果的でないという、圧倒的な合意が間違っていることが分かっています。
本研究は, 極めて低毒率設定に対する防衛機構の緊急性を強調した。
- 参考スコア(独自算出の注目度): 12.90995346859653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code LLMs are increasingly employed in software development. However, studies have shown that they are vulnerable to backdoor attacks: when a trigger (a specific input pattern) appears in the input, the backdoor will be activated and cause the model to generate malicious outputs. Researchers have designed various triggers and demonstrated the feasibility of implanting backdoors by poisoning a fraction of the training data. Some basic conclusions have been made, such as backdoors becoming easier to implant when more training data are modified. However, existing research has not explored other factors influencing backdoor attacks on Code LLMs, such as training batch size, epoch number, and the broader design space for triggers, e.g., trigger length. To bridge this gap, we use code summarization as an example to perform an empirical study that systematically investigates the factors affecting backdoor effectiveness and understands the extent of the threat posed. Three categories of factors are considered: data, model, and inference, revealing previously overlooked findings. We find that the prevailing consensus -- that attacks are ineffective at extremely low poisoning rates -- is incorrect. The absolute number of poisoned samples matters as well. Specifically, poisoning just 20 out of 454K samples (0.004\% poisoning rate -- far below the minimum setting of 0.1\% in prior studies) successfully implants backdoors! Moreover, the common defense is incapable of removing even a single poisoned sample from it. Additionally, small batch sizes increase the risk of backdoor attacks. We also uncover other critical factors such as trigger types, trigger length, and the rarity of tokens in the triggers, leading to valuable insights for assessing Code LLMs' vulnerability to backdoor attacks. Our study highlights the urgent need for defense mechanisms against extremely low poisoning rate settings.
- Abstract(参考訳): コードLLMはますますソフトウェア開発に採用されている。
入力にトリガー(特定の入力パターン)が現れると、バックドアがアクティベートされ、モデルが悪意のある出力を生成する。
研究者は様々なトリガーを設計し、トレーニングデータのごく一部を汚染することでバックドアを移植する可能性を示した。
例えば、より多くのトレーニングデータが修正されると、バックドアの移植が容易になるなどである。
しかし、既存の研究では、バッチサイズ、エポック数、トリガの広い設計スペース、例えばトリガ長さなど、Code LLMのバックドア攻撃に影響を与える他の要因について調べていない。
このギャップを埋めるために、コード要約を例として、バックドアの有効性に影響を与える要因を体系的に調査し、脅威が生じる範囲を理解する経験的研究を行う。
データ、モデル、推論の3つのカテゴリが検討されている。
非常に低い毒殺率で攻撃が効果的でないという、圧倒的な合意が間違っていることが分かっています。
有毒なサンプルの絶対数も問題である。
具体的には、454Kサンプルのうち20個しか毒を塗ることができない(以前の研究では0.1%の最小設定よりはるかに低い0.004%)。
さらに、共通の防御は、単一の有毒試料を除去することができない。
さらに、小さなバッチサイズは、バックドア攻撃のリスクを増大させる。
また、トリガータイプやトリガーの長さ、トリガー内のトークンの希少性など、他の重要な要因も見つけました。
本研究は, 極めて低毒率設定に対する防衛機構の緊急性を強調した。
関連論文リスト
- A4O: All Trigger for One sample [10.78460062665304]
提案されたバックドアディフェンダーは、トリガーが統一された方法で現れるという仮定に依存することが多い。
本稿では,この単純な仮定が抜け穴を生じさせ,より洗練されたバックドア攻撃を回避できることを示す。
我々は,複数の種類のバックドアトリガーを組み込んだ新たなバックドア攻撃機構を設計し,ステルスネスと有効性に着目した。
論文 参考訳(メタデータ) (2025-01-13T10:38:58Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - SoK: A Systematic Evaluation of Backdoor Trigger Characteristics in
Image Classification [21.424907311421197]
ディープラーニングは、トレーニングセットを変更してトレーニングモデルに秘密機能を埋め込むバックドア攻撃に対して脆弱である。
本稿では,バックドア攻撃の最も関連性の高いパラメータを系統的に分析する。
私たちの攻撃は、研究におけるバックドア設定の大部分をカバーし、将来の作業に具体的な方向性を提供します。
論文 参考訳(メタデータ) (2023-02-03T14:00:05Z) - Backdoor Learning Curves: Explaining Backdoor Poisoning Beyond Influence Functions [23.750285504961337]
インクリメンタルラーニングとインフルエンス関数のレンズによるバックドアラーニングのプロセスについて検討した。
その結果, (i) 学習アルゴリズムの複雑さ, (ii) トレーニングセットに注入されたバックドアサンプルの割合, (iii) バックドアトリガーのサイズと可視性など,バックドア攻撃の有効性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T08:00:48Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z) - Backdoor Smoothing: Demystifying Backdoor Attacks on Deep Neural
Networks [25.23881974235643]
バックドア攻撃は、引き起こされたサンプルの周りでよりスムーズな決定関数を誘導することを示します。
実験の結果,入力サンプルにトリガーを付加するとスムーズさが増加し,この現象はより成功した攻撃に対してより顕著であることがわかった。
論文 参考訳(メタデータ) (2020-06-11T18:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。