論文の概要: From Model to Breach: Towards Actionable LLM-Generated Vulnerabilities Reporting
- arxiv url: http://arxiv.org/abs/2511.04538v1
- Date: Thu, 06 Nov 2025 16:52:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.511864
- Title: From Model to Breach: Towards Actionable LLM-Generated Vulnerabilities Reporting
- Title(参考訳): モデルからリーチへ:行動可能なLCM生成脆弱性の報告に向けて
- Authors: Cyril Vallez, Alexander Sternfeld, Andrei Kucharavy, Ljiljana Dolamic,
- Abstract要約: 最新のオープンウェイトモデルでさえ、最も早く報告された脆弱性シナリオに脆弱性があることが示されています。
LLMが生成する脆弱性によって引き起こされるリスクを反映した、新たな重大度指標を導入する。
最も深刻で普及している脆弱性の緩和を促進するために、PEを使用して、モデル露出(ME)スコアを定義します。
- 参考スコア(独自算出の注目度): 43.57360781012506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the role of Large Language Models (LLM)-based coding assistants in software development becomes more critical, so does the role of the bugs they generate in the overall cybersecurity landscape. While a number of LLM code security benchmarks have been proposed alongside approaches to improve the security of generated code, it remains unclear to what extent they have impacted widely used coding LLMs. Here, we show that even the latest open-weight models are vulnerable in the earliest reported vulnerability scenarios in a realistic use setting, suggesting that the safety-functionality trade-off has until now prevented effective patching of vulnerabilities. To help address this issue, we introduce a new severity metric that reflects the risk posed by an LLM-generated vulnerability, accounting for vulnerability severity, generation chance, and the formulation of the prompt that induces vulnerable code generation - Prompt Exposure (PE). To encourage the mitigation of the most serious and prevalent vulnerabilities, we use PE to define the Model Exposure (ME) score, which indicates the severity and prevalence of vulnerabilities a model generates.
- Abstract(参考訳): ソフトウェア開発におけるLLM(Large Language Models)ベースのコーディングアシスタントの役割がより重要になるにつれ、サイバーセキュリティ全体において彼らが生み出すバグの役割も重要になる。
多くのLLMコードセキュリティベンチマークが、生成されたコードのセキュリティを改善するためのアプローチと共に提案されているが、LLMが広く使用されているコーディングにどの程度影響したかは定かではない。
ここでは、最新のオープンウェイトモデルでさえ、現実的な使用環境における最初期の報告された脆弱性シナリオに脆弱性があることを示し、安全機能トレードオフがこれまで脆弱性の効果的なパッチングを妨げてきたことを示唆している。
この問題に対処するために、脆弱性の深刻度、生成可能性、脆弱性コード生成を誘発するプロンプトの定式化など、LLM生成の脆弱性によって引き起こされるリスクを反映した新たな重大度指標(Prompt Exposure:PE)を導入する。
最も深刻で普及している脆弱性の緩和を促進するため、モデルが生成する脆弱性の深刻度と頻度を示すモデル露出(ME)スコアを定義するためにPEを使用します。
関連論文リスト
- Guiding AI to Fix Its Own Flaws: An Empirical Study on LLM-Driven Secure Code Generation [16.29310628754089]
大規模言語モデル(LLM)は、コードの自動生成のための強力なツールになっている。
LLMは、しばしば重要なセキュリティプラクティスを見落とし、安全でないコードを生成する。
本稿では、安全性の低いコードを生成するための固有の傾向、自己生成する脆弱性ヒントによってガイドされた場合にセキュアなコードを生成する能力、フィードバックレベルが異なる場合に脆弱性を修復する効果について検討する。
論文 参考訳(メタデータ) (2025-06-28T23:24:33Z) - Root Defence Strategies: Ensuring Safety of LLM at the Decoding Level [10.476222570886483]
大規模言語モデル (LLM) は様々な産業で大きな有用性を示している。
LLMが進むにつれて、不正または悪意のある命令プロンプトによって有害な出力のリスクが増大する。
本稿では, LLMが有害な出力を認識する能力について検討し, 従来のトークンの危険性を評価する能力を明らかにし, 定量化する。
論文 参考訳(メタデータ) (2024-10-09T12:09:30Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Fine-Tuning, Quantization, and LLMs: Navigating Unintended Outcomes [0.0]
大規模言語モデル(LLM)は、チャットボットやオートタスク補完エージェントなど、さまざまな領域で広く採用されている。
これらのモデルは、ジェイルブレイク、プロンプトインジェクション、プライバシリーク攻撃などの安全性上の脆弱性の影響を受けやすい。
本研究では,これらの変更がLLMの安全性に与える影響について検討する。
論文 参考訳(メタデータ) (2024-04-05T20:31:45Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Enhancing Large Language Models for Secure Code Generation: A
Dataset-driven Study on Vulnerability Mitigation [24.668682498171776]
大規模言語モデル(LLM)はコード生成に大きな進歩をもたらし、初心者と経験豊富な開発者の両方に恩恵を与えている。
しかし、GitHubのようなオープンソースのリポジトリから無防備なデータを使用したトレーニングは、セキュリティ上の脆弱性を不注意に伝播するリスクをもたらす。
本稿では,ソフトウェアセキュリティの観点からのLLMの評価と拡張に焦点をあてた総合的研究について述べる。
論文 参考訳(メタデータ) (2023-10-25T00:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。