論文の概要: A Small Leak Sinks All: Exploring the Transferable Vulnerability of Source Code Models
- arxiv url: http://arxiv.org/abs/2511.08127v1
- Date: Wed, 12 Nov 2025 01:41:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.655284
- Title: A Small Leak Sinks All: Exploring the Transferable Vulnerability of Source Code Models
- Title(参考訳): 小さなリークシンク:ソースコードモデルのトランスファー可能な脆弱性を探る
- Authors: Weiye Li, Wenyi Tang,
- Abstract要約: 本研究は従来のSCMとLLM4Codeの両方の本質的な脆弱性伝達可能性について体系的に研究する。
本研究では,HABITATの設計を行う。
従来のSCMをベースとした構築した敵の例は,LLM4Codeに対して最大64%の成功率を達成し,最先端の技術を15%以上上回った。
- 参考スコア(独自算出の注目度): 1.2320871858014988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source Code Model learn the proper embeddings from source codes, demonstrating significant success in various software engineering or security tasks. The recent explosive development of LLM extends the family of SCMs,bringing LLMs for code that revolutionize development workflows. Investigating different kinds of SCM vulnerability is the cornerstone for the security and trustworthiness of AI-powered software ecosystems, however, the fundamental one, transferable vulnerability, remains critically underexplored. Existing studies neither offer practical ways, i.e. require access to the downstream classifier of SCMs, to produce effective adversarial samples for adversarial defense, nor give heed to the widely used LLM4Code in modern software development platforms and cloud-based integrated development environments. Therefore, this work systematically studies the intrinsic vulnerability transferability of both traditional SCMs and LLM4Code, and proposes a victim-agnostic approach to generate practical adversarial samples. We design HABITAT, consisting of a tailored perturbation-inserting mechanism and a hierarchical Reinforcement Learning framework that adaptively selects optimal perturbations without requiring any access to the downstream classifier of SCMs. Furthermore, an intrinsic transferability analysis of SCM vulnerabilities is conducted, revealing the potential vulnerability correlation between traditional SCMs and LLM4Code, together with fundamental factors that govern the success rate of victim-agnostic transfer attacks. These findings of SCM vulnerabilities underscore the critical focal points for developing robust defenses in the future. Experimental evaluation demonstrates that our constructed adversarial examples crafted based on traditional SCMs achieve up to 64% success rates against LLM4Code, surpassing the state-of-the-art by over 15%.
- Abstract(参考訳): ソースコードモデルでは、ソースコードから適切な埋め込みを学び、様々なソフトウェアエンジニアリングやセキュリティタスクで大きな成功を収めています。
LLMの最近の爆発的開発は、開発ワークフローに革命をもたらすコードのためにLLMを育むSCMのファミリーを拡張している。
さまざまな種類のSCM脆弱性を調査することは、AI駆動のソフトウェアエコシステムのセキュリティと信頼性の基盤となるが、基本的な脆弱性である転送可能な脆弱性は、いまだに過小評価されている。
既存の研究は、現代のソフトウェア開発プラットフォームやクラウドベースの統合開発環境において広く使われているLCM4Codeに注意を払って、SCMの下流の分類器へのアクセス、敵防衛のための効果的な敵のサンプルの作成を必要としている。
そこで本研究では,従来のSCMとLLM4Codeの両方の本質的な脆弱性伝達可能性について体系的に研究し,現実的な敵のサンプルを生成するための被害者に依存しないアプローチを提案する。
本研究では,SCMの下流分類器へのアクセスを必要とせず,最適な摂動を適応的に選択する階層型強化学習フレームワークを設計する。
さらに、従来のSCMとLSM4Codeの潜在的な脆弱性相関と、被害者非依存のトランスファー攻撃の成功率を規定する基本的な要因を明らかにすることによって、SCM脆弱性の本質的なトランスファービリティ分析を行う。
これらのSCM脆弱性の発見は、将来堅固な防御を開発する上で重要なポイントを浮き彫りにしている。
実験により, 従来のSCMをベースとした構築した対戦型実例は, LLM4Codeに対して最大64%の成功率を示し, 最先端の手法を15%以上上回った。
関連論文リスト
- Uncovering Vulnerabilities of LLM-Assisted Cyber Threat Intelligence [15.881854286231997]
大規模言語モデル(LLM)は、サイバー脅威の迅速な搾取に対抗するセキュリティアナリストを支援するために、集中的に使用される。
本稿では,サイバー脅威インテリジェンス(CTI)におけるLCMの固有の脆弱性について検討する。
本稿では, 階層化, 自己回帰的洗練, ループ内人間監督を統合した新たな分類手法を提案する。
論文 参考訳(メタデータ) (2025-09-28T02:08:27Z) - Ensembling Large Language Models for Code Vulnerability Detection: An Empirical Evaluation [69.8237598448941]
本研究では,ソースコードの脆弱性検出において,Large Language Models(LLM)の性能を高めるためのアンサンブル学習の可能性を検討する。
脆弱性検出に適したスタック機能であるDynamic Gated Stacking (DGS)を提案する。
論文 参考訳(メタデータ) (2025-09-16T03:48:22Z) - Guiding AI to Fix Its Own Flaws: An Empirical Study on LLM-Driven Secure Code Generation [16.29310628754089]
大規模言語モデル(LLM)は、コードの自動生成のための強力なツールになっている。
LLMは、しばしば重要なセキュリティプラクティスを見落とし、安全でないコードを生成する。
本稿では、安全性の低いコードを生成するための固有の傾向、自己生成する脆弱性ヒントによってガイドされた場合にセキュアなコードを生成する能力、フィードバックレベルが異なる場合に脆弱性を修復する効果について検討する。
論文 参考訳(メタデータ) (2025-06-28T23:24:33Z) - LLM-BSCVM: An LLM-Based Blockchain Smart Contract Vulnerability Management Framework [5.88442044992561]
LLM-BSCVMは、大規模言語モデルに基づくスマートコントラクトの脆弱性管理フレームワークである。
Web 3.0エコシステムに対して、エンドツーエンドの脆弱性検出、分析、修復、評価機能を提供する。
脆弱性検出の精度を実現し、ベンチマークデータセットではF1スコアが91%を超えている。
論文 参考訳(メタデータ) (2025-05-23T03:05:09Z) - A Trustworthy Multi-LLM Network: Challenges,Solutions, and A Use Case [59.58213261128626]
複数の大規模言語モデル(LLM)を信頼性のあるマルチLLMネットワーク(MultiLLMN)に接続するブロックチェーン対応協調フレームワークを提案する。
このアーキテクチャは、複雑なネットワーク最適化問題に対する最も信頼性が高く高品質な応答の協調評価と選択を可能にする。
論文 参考訳(メタデータ) (2025-05-06T05:32:46Z) - An Empirical Study of Automated Vulnerability Localization with Large Language Models [21.84971967029474]
大規模言語モデル(LLM)は、様々な領域において可能性を示しているが、脆弱性のローカライゼーションにおけるその有効性は未解明のままである。
本調査では,ChatGPTや各種オープンソースモデルなど,コード解析に適した10以上のLLMを対象とする。
ゼロショット学習,ワンショット学習,識別的微調整,生成的微調整の4つのパラダイムを用いて,これらのLCMの有効性を検討する。
論文 参考訳(メタデータ) (2024-03-30T08:42:10Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。