論文の概要: You Autocomplete Me: Poisoning Vulnerabilities in Neural Code Completion
- arxiv url: http://arxiv.org/abs/2007.02220v3
- Date: Thu, 8 Oct 2020 23:12:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:04:19.561616
- Title: You Autocomplete Me: Poisoning Vulnerabilities in Neural Code Completion
- Title(参考訳): 自動補完:ニューラルコード補完における脆弱性の発見
- Authors: Roei Schuster, Congzheng Song, Eran Tromer, Vitaly Shmatikov
- Abstract要約: 神経コードオートコンプリートは、毒性攻撃に対して脆弱であることを示す。
我々は、最先端のオートコンプリートに対するターゲットデータと未ターゲットデータとモデルポゾン攻撃の有効性を定量化する。
- 参考スコア(独自算出の注目度): 33.17909183653049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code autocompletion is an integral feature of modern code editors and IDEs.
The latest generation of autocompleters uses neural language models, trained on
public open-source code repositories, to suggest likely (not just statically
feasible) completions given the current context.
We demonstrate that neural code autocompleters are vulnerable to poisoning
attacks. By adding a few specially-crafted files to the autocompleter's
training corpus (data poisoning), or else by directly fine-tuning the
autocompleter on these files (model poisoning), the attacker can influence its
suggestions for attacker-chosen contexts. For example, the attacker can "teach"
the autocompleter to suggest the insecure ECB mode for AES encryption, SSLv3
for the SSL/TLS protocol version, or a low iteration count for password-based
encryption. Moreover, we show that these attacks can be targeted: an
autocompleter poisoned by a targeted attack is much more likely to suggest the
insecure completion for files from a specific repo or specific developer.
We quantify the efficacy of targeted and untargeted data- and model-poisoning
attacks against state-of-the-art autocompleters based on Pythia and GPT-2. We
then evaluate existing defenses against poisoning attacks and show that they
are largely ineffective.
- Abstract(参考訳): コードの自動補完は、現代のコードエディタとIDEにとって不可欠な機能である。
最新世代のオートコンプリータは、公開オープンソースコードリポジトリでトレーニングされたニューラルネットワークモデルを使用して、現在の状況から(静的に実現可能なだけでなく)補完の可能性を示している。
我々は、ニューラルネットワークのオートコンプリートが中毒攻撃に弱いことを実証する。
オートコンプリーマーのトレーニングコーパス(データ中毒)にいくつかの特殊なファイルを追加するか、あるいはこれらのファイルに直接オートコンプリーマーを微調整することで(モデル中毒)、攻撃者はアタッカーのコンテキストに対する提案に影響を与えることができる。
例えば、攻撃者は自動補完装置を「教える」ことで、AES暗号化のECBモード、SSL/TLSプロトコルのバージョンのSSLv3、パスワードベースの暗号化の低いイテレーションカウントを提案することができる。
さらに、これらの攻撃は標的にすることができることを示し、標的に攻撃されたオートコンプリーマーは、特定のリポジトリや特定の開発者からのファイルの安全性が低いことを示唆する。
我々は、pythiaとgpt-2に基づく最先端オートコンプリートに対する標的および非標的データおよびモデルポジショニング攻撃の有効性を定量化する。
次に、既存の毒殺対策の評価を行い、その効果がほとんどないことを示す。
関連論文リスト
- AutoDAN: Interpretable Gradient-Based Adversarial Attacks on Large
Language Models [55.748851471119906]
LLM(Large Language Models)の安全性の整合性は、手動のジェイルブレイク攻撃や(自動)敵攻撃によって損なわれる可能性がある。
最近の研究は、これらの攻撃に対する防御が可能であることを示唆している。敵攻撃は無限だが読めないジベリッシュプロンプトを生成し、難易度に基づくフィルタによって検出できる。
両攻撃の強度をマージする,解釈可能な勾配に基づく対向攻撃であるAutoDANを導入する。
論文 参考訳(メタデータ) (2023-10-23T17:46:07Z) - Efficient Avoidance of Vulnerabilities in Auto-completed Smart Contract
Code Using Vulnerability-constrained Decoding [3.5407016565750653]
コードの自動コンパイルにより、開発者はコーディングを大幅にスピードアップできる。
近年,コード合成に変換器を用いた大規模言語モデル (LLM) 技術が応用されている。
本稿では,そのようなモデルによって生成される脆弱性コード量を削減するために,脆弱性制約付き復号法を提案する。
論文 参考訳(メタデータ) (2023-09-18T14:47:34Z) - TrojanPuzzle: Covertly Poisoning Code-Suggestion Models [27.418320728203387]
ドクストリングなどの文脈外領域に悪意のある毒データを植え付けることで静的解析を回避できる2つの攻撃を示す。
我々の最も新しい攻撃であるTROJANPUZLEは、ペイロードの特定の部分(目立たしい)を毒データに明示的に含めないことによって、不審な毒データを生成するための一歩を踏み出した。
論文 参考訳(メタデータ) (2023-01-06T00:37:25Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - PoisonedEncoder: Poisoning the Unlabeled Pre-training Data in
Contrastive Learning [69.70602220716718]
コントラスト学習のためのデータ中毒攻撃であるPoisonedEncoderを提案する。
特に、攻撃者は未ラベルの事前訓練データに慎重に毒を盛った入力を注入する。
我々は,PoisonedEncoderに対する5つの防御効果を評価し,前処理が1つ,内処理が3つ,後処理が1つであった。
論文 参考訳(メタデータ) (2022-05-13T00:15:44Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Double Backpropagation for Training Autoencoders against Adversarial
Attack [15.264115499966413]
本稿では,オートエンコーダに対する敵攻撃に着目した。
本稿では,VAE や DRAW などのオートエンコーダを確保するために,二重バックプロパゲーション (DBP) を採用することを提案する。
論文 参考訳(メタデータ) (2020-03-04T05:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。