論文の概要: Explaining Software Vulnerabilities with Large Language Models
- arxiv url: http://arxiv.org/abs/2511.04179v1
- Date: Thu, 06 Nov 2025 08:30:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.364406
- Title: Explaining Software Vulnerabilities with Large Language Models
- Title(参考訳): 大規模言語モデルによるソフトウェア脆弱性の解説
- Authors: Oshando Johnson, Alexandra Fomina, Ranjith Krishnamurthy, Vaibhav Chaudhari, Rohith Kumar Shanmuganathan, Eric Bodden,
- Abstract要約: SASTツールが検出した脆弱性の原因, 影響, 緩和戦略を説明するため, GPT-4oを利用した統合開発環境(IDE)プラグインであるSAFEを提案する。
専門的なユーザ調査の結果から,SAFEが生成した説明は,セキュリティ脆弱性の理解と対処において,初心者から中間開発者への大きな助けとなることが示唆された。
- 参考スコア(独自算出の注目度): 35.74179339347328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prevalence of security vulnerabilities has prompted companies to adopt static application security testing (SAST) tools for vulnerability detection. Nevertheless, these tools frequently exhibit usability limitations, as their generic warning messages do not sufficiently communicate important information to developers, resulting in misunderstandings or oversight of critical findings. In light of recent developments in Large Language Models (LLMs) and their text generation capabilities, our work investigates a hybrid approach that uses LLMs to tackle the SAST explainability challenges. In this paper, we present SAFE, an Integrated Development Environment (IDE) plugin that leverages GPT-4o to explain the causes, impacts, and mitigation strategies of vulnerabilities detected by SAST tools. Our expert user study findings indicate that the explanations generated by SAFE can significantly assist beginner to intermediate developers in understanding and addressing security vulnerabilities, thereby improving the overall usability of SAST tools.
- Abstract(参考訳): セキュリティ脆弱性の流行により、企業は脆弱性検出に静的アプリケーションセキュリティテスト(SAST)ツールを採用するようになった。
それでもこれらのツールは、一般的な警告メッセージが開発者に対して十分な重要な情報を伝達しないため、ユーザビリティの制限を頻繁に示している。
近年のLarge Language Models(LLMs)とそのテキスト生成能力の進歩を踏まえ,LLMを用いたハイブリッドアプローチによるSAST説明可能性問題への取り組みについて検討した。
本稿では, GPT-4oを利用した統合開発環境(IDE)プラグインであるSAFEについて, SASTツールが検出した脆弱性の原因, 影響, 緩和戦略を説明する。
専門的なユーザ調査の結果から,SAFEが生成した説明は,セキュリティ脆弱性の理解と対処において,初心者から中間開発者への大きな助けとなり,SASTツールのユーザビリティが向上することが示唆された。
関連論文リスト
- From Model to Breach: Towards Actionable LLM-Generated Vulnerabilities Reporting [43.57360781012506]
最新のオープンウェイトモデルでさえ、最も早く報告された脆弱性シナリオに脆弱性があることが示されています。
LLMが生成する脆弱性によって引き起こされるリスクを反映した、新たな重大度指標を導入する。
最も深刻で普及している脆弱性の緩和を促進するために、PEを使用して、モデル露出(ME)スコアを定義します。
論文 参考訳(メタデータ) (2025-11-06T16:52:27Z) - In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [104.94706600050557]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - The Impact of SBOM Generators on Vulnerability Assessment in Python: A Comparison and a Novel Approach [56.4040698609393]
Software Bill of Materials (SBOM) は、ソフトウェア構成における透明性と妥当性を高めるツールとして推奨されている。
現在のSBOM生成ツールは、コンポーネントや依存関係を識別する際の不正確さに悩まされることが多い。
提案するPIP-sbomは,その欠点に対処する新しいピップインスパイアされたソリューションである。
論文 参考訳(メタデータ) (2024-09-10T10:12:37Z) - Comparison of Static Application Security Testing Tools and Large Language Models for Repo-level Vulnerability Detection [11.13802281700894]
静的アプリケーションセキュリティテスト(SAST)は通常、セキュリティ脆弱性のソースコードをスキャンするために使用される。
ディープラーニング(DL)ベースの手法は、ソフトウェア脆弱性検出の可能性を実証している。
本稿では,ソフトウェア脆弱性を検出するために,15種類のSASTツールと12種類の最先端のオープンソースLLMを比較した。
論文 参考訳(メタデータ) (2024-07-23T07:21:14Z) - Towards Explainable Vulnerability Detection with Large Language Models [14.243344783348398]
ソフトウェア脆弱性は、ソフトウェアシステムのセキュリティと整合性に重大なリスクをもたらす。
大規模言語モデル(LLMs)の出現は、その高度な生成能力による変換ポテンシャルを導入している。
本稿では,脆弱性検出と説明という2つのタスクにLLMを専門化する自動フレームワークであるLLMVulExpを提案する。
論文 参考訳(メタデータ) (2024-06-14T04:01:25Z) - ToolSword: Unveiling Safety Issues of Large Language Models in Tool Learning Across Three Stages [45.16862486631841]
ツール学習は,現実のシナリオにおいて,基本的なアプローチあるいは大規模言語モデル(LLM)のデプロイとして広く認識されている。
このギャップを埋めるために、ツール学習においてLLMに関連する安全性問題を調べるための包括的なフレームワークである*ToolSword*を紹介します。
論文 参考訳(メタデータ) (2024-02-16T15:19:46Z) - HW-V2W-Map: Hardware Vulnerability to Weakness Mapping Framework for
Root Cause Analysis with GPT-assisted Mitigation Suggestion [3.847218857469107]
HW-V2W-Map Frameworkは、ハードウェア脆弱性とIoT(Internet of Things)セキュリティに焦点を当てた機械学習(ML)フレームワークである。
私たちが提案したアーキテクチャには,オントロジーを更新するプロセスを自動化する,オントロジー駆動のストーリテリングフレームワークが組み込まれています。
提案手法は,GPT (Generative Pre-trained Transformer) Large Language Models (LLMs) を用いて緩和提案を行った。
論文 参考訳(メタデータ) (2023-12-21T02:14:41Z) - "False negative -- that one is going to kill you": Understanding Industry Perspectives of Static Analysis based Security Testing [15.403953373155508]
本稿では,SASTを利用する開発者が経験した仮定,期待,信念,課題について質的研究を行う。
私たちは、さまざまなソフトウェア開発の専門知識を持つ20人の実践者と、深く、半構造化されたインタビューを行います。
私たちは、SASTに関連する開発者の認識と欲求に光を当てた17ドルの重要な発見を特定します。
論文 参考訳(メタデータ) (2023-07-30T21:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。