論文の概要: LLM-CSEC: Empirical Evaluation of Security in C/C++ Code Generated by Large Language Models
- arxiv url: http://arxiv.org/abs/2511.18966v1
- Date: Mon, 24 Nov 2025 10:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.157158
- Title: LLM-CSEC: Empirical Evaluation of Security in C/C++ Code Generated by Large Language Models
- Title(参考訳): LLM-CSEC: 大規模言語モデルによるC/C++コードのセキュリティの実証評価
- Authors: Muhammad Usman Shahid, Chuadhry Mujeeb Ahmed, Rajiv Ranjan,
- Abstract要約: 本研究は,大規模言語モデル(LLM)のセキュリティを検証し,評価することに焦点を当てる。
コード生成に10種類のLCMを使用し、静的解析により出力を分析した。
AI生成コードに存在する共通弱さ(Common Weaknession, CWE)の量について検討する。
- 参考スコア(独自算出の注目度): 3.82562358840301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The security of code generated by large language models (LLMs) is a significant concern, as studies indicate that such code often contains vulnerabilities and lacks essential defensive programming constructs. This work focuses on examining and evaluating the security of LLM-generated code, particularly in the context of C/C++. We categorized known vulnerabilities using the Common Weakness Enumeration (CWE) and, to study their criticality, mapped them to CVEs. We used ten different LLMs for code generation and analyzed the outputs through static analysis. The amount of CWEs present in AI-generated code is concerning. Our findings highlight the need for developers to be cautious when using LLM-generated code. This study provides valuable insights to advance automated code generation and encourage further research in this domain.
- Abstract(参考訳): 大規模言語モデル(LLM)が生成するコードのセキュリティは重要な問題であり、そのようなコードには脆弱性が頻繁に含まれており、必須の防御的プログラミング構造が欠如していることを示している。
この研究は、特にC/C++のコンテキストにおいて、LLM生成コードのセキュリティを調べ評価することに焦点を当てている。
私たちは、CWE(Common Weakness Enumeration)を使用して既知の脆弱性を分類し、その臨界性を研究するために、それらをCVEにマップしました。
コード生成に10種類のLCMを使用し、静的解析により出力を分析した。
AI生成コードに存在するCWEの量についてです。
我々の発見は、LCM生成コードを使用する場合、開発者は慎重である必要があることを示している。
この研究は、自動コード生成を推進し、この領域におけるさらなる研究を促進するための貴重な洞察を提供する。
関連論文リスト
- A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code [49.009041488527544]
A.S.Eは、AI生成コードのセキュリティを評価するためのリポジトリレベルの評価ベンチマークである。
現在の大規模言語モデル(LLM)は、セキュアなコーディングに苦戦している。
大きな推論予算は、必ずしもより良いコード生成につながるとは限らない。
論文 参考訳(メタデータ) (2025-08-25T15:11:11Z) - Helping LLMs Improve Code Generation Using Feedback from Testing and Static Analysis [3.892345568697058]
大規模言語モデル(LLM)は人工知能分野における最も有望な発展の1つである。
開発者は定期的にLCMにコードスニペットの生成を依頼し、生産性の向上に加えて、オーナシップ、プライバシ、正確性、セキュリティ問題も導入する。
以前の作業では、商用のLLMによって生成されたコードが、脆弱性やバグ、コードの臭いなど、安全でないことが強調されていた。
論文 参考訳(メタデータ) (2024-12-19T13:34:14Z) - An Exploratory Study on Fine-Tuning Large Language Models for Secure Code Generation [16.000227726163967]
脆弱性修正コミットのデータセット上で学習済みの大規模言語モデルがセキュアなコード生成を促進するかどうかを検討する。
オープンソースのリポジトリから、確認済みの脆弱性のコード修正を収集することで、セキュアなコード生成のための微調整データセット(14,622 C/C++ファイル)をクロールします。
C言語のセキュリティの最大改善は6.4%、C++言語の5.0%です。
論文 参考訳(メタデータ) (2024-08-17T02:51:27Z) - Can We Trust Large Language Models Generated Code? A Framework for In-Context Learning, Security Patterns, and Code Evaluations Across Diverse LLMs [2.7138982369416866]
大規模言語モデル(LLM)は、ソフトウェア工学における自動コード生成に革命をもたらした。
しかし、生成されたコードのセキュリティと品質に関する懸念が持ち上がっている。
本研究は,LLMの行動学習をセキュアにするための枠組みを導入することで,これらの課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-06-18T11:29:34Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - SALLM: Security Assessment of Generated Code [0.5137309756089941]
本稿では,セキュアなコードを体系的に生成する大規模言語モデルの能力をベンチマークするフレームワークであるSALLMについて述べる。
フレームワークには3つの主要なコンポーネントがある。セキュリティ中心のPythonプロンプトの新たなデータセット、生成されたコードを評価するための評価テクニック、セキュアなコード生成の観点からモデルのパフォーマンスを評価するための新しいメトリクスである。
論文 参考訳(メタデータ) (2023-11-01T22:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。