論文の概要: From Rookie to Expert: Manipulating LLMs for Automated Vulnerability Exploitation in Enterprise Software
- arxiv url: http://arxiv.org/abs/2512.22753v1
- Date: Sun, 28 Dec 2025 02:55:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.205167
- Title: From Rookie to Expert: Manipulating LLMs for Automated Vulnerability Exploitation in Enterprise Software
- Title(参考訳): Rookieからエキスパートへ:エンタープライズソフトウェアにおける自動脆弱性爆発のためのLSMを操作する
- Authors: Moustapha Awwalou Diouf, Maimouna Tamah Diao, Iyiola Emmanuel Olatunji, Abdoul Kader Kaboré, Jordan Samhi, Gervais Mendy, Samuel Ouya, Jacques Klein, Tegawendé F. Bissyandé,
- Abstract要約: 我々は、初心者を有能な攻撃者に変えるために、公開LLMがいかに社会的に設計できるかを示す。
RSA (Role-Solicitation, Scenario-pretexting, Action-Assignment) を事前文化戦略として提案する。
これは、ソフトウェアエンジニアリングにおけるパラダイムシフトを表します。私たちは、コードを理解するのではなく、プロンプトを作る能力だけを必要とする時代において、セキュリティプラクティスを再設計する必要があります。
- 参考スコア(独自算出の注目度): 9.764818260560881
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: LLMs democratize software engineering by enabling non-programmers to create applications, but this same accessibility fundamentally undermines security assumptions that have guided software engineering for decades. We show in this work how publicly available LLMs can be socially engineered to transform novices into capable attackers, challenging the foundational principle that exploitation requires technical expertise. To that end, we propose RSA (Role-assignment, Scenario-pretexting, and Action-solicitation), a pretexting strategy that manipulates LLMs into generating functional exploits despite their safety mechanisms. Testing against Odoo -- a widely used ERP platform, we evaluated five mainstream LLMs (GPT-4o, Gemini, Claude, Microsoft Copilot, and DeepSeek) and achieved a 100% success rate: tested CVE yielded at least one working exploit within 3-4 prompting rounds. While prior work [13] found LLM-assisted attacks difficult and requiring manual effort, we demonstrate that this overhead can be eliminated entirely. Our findings invalidate core software engineering security principles: the distinction between technical and non-technical actors no longer provides valid threat models; technical complexity of vulnerability descriptions offers no protection when LLMs can abstract it away; and traditional security boundaries dissolve when the same tools that build software can be manipulated to break it. This represents a paradigm shift in software engineering -- we must redesign security practices for an era where exploitation requires only the ability to craft prompts, not understand code. Artifacts available at: https://anonymous.4open.science/r/From-Rookie-to-Attacker-D8B3.
- Abstract(参考訳): LLMは、非プログラマがアプリケーションを作成できるようにすることで、ソフトウェアエンジニアリングを民主化するが、このアクセシビリティは、何十年にもわたってソフトウェアエンジニアリングをガイドしてきたセキュリティの前提を根本的に損なう。
我々はこの研究で、初心者を有能な攻撃者に変えるために、公開可能なLLMを社会的に設計できることを示し、搾取には技術的専門知識が必要であるという基本的な原則に挑戦する。
そこで本稿では, LLMを操作して, 安全機構に拘わらず, 機能的エクスプロイトを生成するプリテキスト化戦略であるRSA(Role-Assignment, Scenario-pretexting, Action-Solicitation)を提案する。
広く使用されているERPプラットフォームであるOdooに対するテストでは、5つの主要なLCM(GPT-4o、Gemini、Claude、Microsoft Copilot、DeepSeek)を評価し、100%の成功率を達成した。
以前の作業 [13] では LLM 支援による攻撃が難しく,手作業による攻撃が難しいことが分かりましたが,このオーバーヘッドを完全に排除できることが示されています。
技術的なアクターと非技術的アクターの区別は、もはや有効な脅威モデルを提供しておらず、脆弱性記述の技術的な複雑さは、LSMがそれを抽象化できる場合に保護を提供しません。
これは、ソフトウェアエンジニアリングにおけるパラダイムシフトを表します。私たちは、コードを理解するのではなく、プロンプトを作る能力だけを必要とする時代において、セキュリティプラクティスを再設計する必要があります。
アーティファクトは以下の通り。 https://anonymous.4open.science/r/From-Rookie-to-Attacker-D8B3。
関連論文リスト
- Friend or Foe: How LLMs' Safety Mind Gets Fooled by Intent Shift Attack [53.34204977366491]
大きな言語モデル(LLM)は、印象的な機能にもかかわらず、ジェイルブレイク攻撃に対して脆弱なままである。
本稿では,攻撃意図について LLM を混乱させる ISA (Intent Shift Attack) を提案する。
私たちのアプローチでは、元の要求に対して最小限の編集しか必要とせず、自然で、可読性があり、一見無害なプロンプトをもたらす。
論文 参考訳(メタデータ) (2025-11-01T13:44:42Z) - Safety Guardrails for LLM-Enabled Robots [82.0459036717193]
従来のロボット安全アプローチは、大規模言語モデル(LLM)の新たな脆弱性に対処しない
LLM対応ロボットの安全性を確保するための2段ガードレールアーキテクチャであるRoboGuardを提案する。
RoboGuardは、安全プランのパフォーマンスを損なうことなく、安全でないプランの実行を92%から2.5%以下に削減することを示す。
論文 参考訳(メタデータ) (2025-03-10T22:01:56Z) - Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - LLMs know their vulnerabilities: Uncover Safety Gaps through Natural Distribution Shifts [88.96201324719205]
大規模言語モデル(LLM)の安全性に関する懸念は、事前訓練中に潜在的に有害なデータに曝されることにより、大きな注目を集めている。
我々は、有害なコンテンツに意味的に関連していると思われる良心的なプロンプトが、安全性のメカニズムを回避できる新しい安全性脆弱性をLSMで特定する。
我々は,事前学習における有害なプロンプトに関連するアクターを識別する新しい攻撃手法,textitActorBreakerを導入する。
論文 参考訳(メタデータ) (2024-10-14T16:41:49Z) - AgentHarm: A Benchmark for Measuring Harmfulness of LLM Agents [84.96249955105777]
LLMエージェントは誤用された場合、より大きなリスクを引き起こすが、その堅牢性は未発見のままである。
我々は, LLMエージェント誤用の研究を容易にするために, AgentHarmと呼ばれる新しいベンチマークを提案する。
主要なLLMは、ジェイルブレイクなしで悪意のあるエージェント要求に驚くほど準拠している。
論文 参考訳(メタデータ) (2024-10-11T17:39:22Z) - Assessing LLMs in Malicious Code Deobfuscation of Real-world Malware Campaigns [7.776434991976473]
本稿では,大規模言語モデル(LLM)の難読化機能について検討する。
我々は,悪名高いEmotetマルウェアキャンペーンで使用されている現実の悪意のあるスクリプトを用いた4つのLSMを評価した。
以上の結果から,まだ完全には正確ではないものの,これらのペイロードを効率よく除去できるLCMが存在することが示唆された。
論文 参考訳(メタデータ) (2024-04-30T17:06:27Z) - LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks [0.0]
我々は,完全に自動化されたLanguage Models(LLM)駆動の,自動Linux特権エスカレーション攻撃用プロトタイプであるHackingBuddyGPTを紹介する。
GPT-4-Turboは高い有効性を示し,33~83%の脆弱性を悪用した。
論文 参考訳(メタデータ) (2023-10-17T17:15:41Z) - RatGPT: Turning online LLMs into Proxies for Malware Attacks [0.0]
本稿では、ChatGPTが検出を回避しつつ悪意あるソフトウェアの普及に使用される概念実証について述べる。
我々はまた、検出されていないまま攻撃を成功させるために、一般的なアプローチと重要な要素を提示する。
論文 参考訳(メタデータ) (2023-08-17T20:54:39Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。