論文の概要: Multi-target Backdoor Attacks for Code Pre-trained Models
- arxiv url: http://arxiv.org/abs/2306.08350v1
- Date: Wed, 14 Jun 2023 08:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 19:48:33.917310
- Title: Multi-target Backdoor Attacks for Code Pre-trained Models
- Title(参考訳): コード事前学習モデルに対するマルチターゲットバックドア攻撃
- Authors: Yanzhou Li, Shangqing Liu, Kangjie Chen, Xiaofei Xie, Tianwei Zhang
and Yang Liu
- Abstract要約: コード事前学習モデルに対するタスク非依存のバックドア攻撃を提案する。
このアプローチは、コードに関連する下流タスクを効果的に、かつ、ステルス的に攻撃することができる。
- 参考スコア(独自算出の注目度): 24.37781284059454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks for neural code models have gained considerable attention
due to the advancement of code intelligence. However, most existing works
insert triggers into task-specific data for code-related downstream tasks,
thereby limiting the scope of attacks. Moreover, the majority of attacks for
pre-trained models are designed for understanding tasks. In this paper, we
propose task-agnostic backdoor attacks for code pre-trained models. Our
backdoored model is pre-trained with two learning strategies (i.e., Poisoned
Seq2Seq learning and token representation learning) to support the multi-target
attack of downstream code understanding and generation tasks. During the
deployment phase, the implanted backdoors in the victim models can be activated
by the designed triggers to achieve the targeted attack. We evaluate our
approach on two code understanding tasks and three code generation tasks over
seven datasets. Extensive experiments demonstrate that our approach can
effectively and stealthily attack code-related downstream tasks.
- Abstract(参考訳): ニューラルコードモデルのバックドア攻撃は、コードインテリジェンスの進歩により、かなりの注目を集めている。
しかし、既存の作業の多くは、コードに関連する下流タスクのタスク固有のデータにトリガーを挿入することで、攻撃範囲を制限している。
さらに、事前訓練されたモデルに対する攻撃の大半は、タスクを理解するために設計されている。
本稿では,コード事前学習モデルに対するタスク非依存のバックドア攻撃を提案する。
我々のバックドアモデルは、下流のコード理解と生成タスクのマルチターゲット攻撃をサポートする2つの学習戦略(Poisoned Seq2Seq学習とトークン表現学習)で事前訓練されている。
デプロイフェーズでは、ターゲットの攻撃を達成するために設計したトリガーによって、被害者モデルに埋め込まれたバックドアを起動することができる。
7つのデータセット上で2つのコード理解タスクと3つのコード生成タスクに対するアプローチを評価した。
大規模な実験により、我々のアプローチは、コードに関連する下流タスクを効果的に、そして、密かに攻撃できることを示した。
関連論文リスト
- CodePurify: Defend Backdoor Attacks on Neural Code Models via Entropy-based Purification [19.570958294967536]
バックドアアタックは、多くのソフトウェアエンジニアリングタスクにおいて、100%近いアタック成功率を達成することができます。
エントロピーに基づく浄化を通じて,コードモデルに対するバックドア攻撃に対する新たな防御法であるCodePurifyを提案する。
我々は、CodePurifyを3つの代表的なタスクと2つの人気のあるコードモデルにわたる4つの高度なバックドア攻撃に対して広範囲に評価した。
論文 参考訳(メタデータ) (2024-10-26T10:17:50Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - TAPI: Towards Target-Specific and Adversarial Prompt Injection against Code LLMs [27.700010465702842]
本稿では,新たな攻撃パラダイム,すなわち,コードLLMに対するターゲット固有および対向的プロンプトインジェクション(TAPI)を提案する。
TAPIは悪意のある命令に関する情報を含む読めないコメントを生成し、それらを外部ソースコードのトリガーとして隠す。
CodeGeexやGithub Copilotなど、デプロイされたコード補完統合アプリケーションに対する攻撃に成功しました。
論文 参考訳(メタデータ) (2024-07-12T10:59:32Z) - Indiscriminate Data Poisoning Attacks on Pre-trained Feature Extractors [26.36344184385407]
本稿では,事前訓練した特徴抽出器を応用した下流タスクに対する無差別攻撃の脅威について検討する。
入力空間攻撃とは,(1)既存の攻撃を修正して入力空間に有毒なデータを作る攻撃と,(2)学習した特徴表現をデータセットとして扱うことで有毒な特徴を見つける攻撃である。
実験では、同じデータセット上の微調整やドメイン適応を考慮した転帰学習など、下流の一般的なタスクにおける攻撃について検討した。
論文 参考訳(メタデータ) (2024-02-20T01:12:59Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Stealthy Backdoor Attack for Code Models [19.272856932095966]
既存のコードモデルに対するバックドア攻撃では、不便で簡単に検出できるトリガーが使用される。
本稿では、ステルスなバックドア攻撃によるコードモデルの脆弱性を調査することを目的とする。
AFRAIDOORにおけるアダプティブトリガーの約85%が、防衛プロセスにおける検出をバイパスしていることがわかった。
論文 参考訳(メタデータ) (2023-01-06T13:15:42Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - FooBaR: Fault Fooling Backdoor Attack on Neural Network Training [5.639451539396458]
ニューラルネットワークのトレーニングフェーズ中に障害を注入することで,新たな攻撃パラダイムを探索する。
このような攻撃は、トレーニングフェーズの障害攻撃がネットワークにバックドアを注入し、攻撃者が不正な入力を生成できるようにするような、不正なバックドアと呼ばれる。
論文 参考訳(メタデータ) (2021-09-23T09:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。