論文の概要: Comparative Analysis of the Code Generated by Popular Large Language Models (LLMs) for MISRA C++ Compliance
- arxiv url: http://arxiv.org/abs/2506.23535v1
- Date: Mon, 30 Jun 2025 05:53:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.933789
- Title: Comparative Analysis of the Code Generated by Popular Large Language Models (LLMs) for MISRA C++ Compliance
- Title(参考訳): MISRA C++準拠のためのLopular Large Language Models (LLMs) によるコードの比較解析
- Authors: Malik Muhammad Umer,
- Abstract要約: 安全クリティカルなシステムのソフトウェア開発には厳格なエンジニアリングプラクティスとアビオニクスのDO-178Cのような認定基準の遵守が必要です。
DO-178Cは、MISRA C++のようなよく定義されたソフトウェアコーディング標準に準拠する必要があるガイダンス文書である。
MISRA C++に準拠するために、人気のあるLLMが生成するC++コードの比較分析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety-critical systems are engineered systems whose failure or malfunction could result in catastrophic consequences. The software development for safety-critical systems necessitates rigorous engineering practices and adherence to certification standards like DO-178C for avionics. DO-178C is a guidance document which requires compliance to well-defined software coding standards like MISRA C++ to enforce coding guidelines that prevent the use of ambiguous, unsafe, or undefined constructs. Large Language Models (LLMs) have demonstrated significant capabilities in automatic code generation across a wide range of programming languages, including C++. Despite their impressive performance, code generated by LLMs in safety-critical domains must be carefully analyzed for conformance to MISRA C++ coding standards. In this paper, I have conducted a comparative analysis of the C++ code generated by popular LLMs including: OpenAI ChatGPT, Google Gemini, DeepSeek, Meta AI, and Microsoft Copilot for compliance with MISRA C++.
- Abstract(参考訳): 安全クリティカルシステムは、故障や故障が破滅的な結果をもたらす可能性があるシステムである。
安全クリティカルなシステムのソフトウェア開発には厳格なエンジニアリングプラクティスとアビオニクスのDO-178Cのような認定基準の遵守が必要です。
DO-178Cは、MISRA C++のような明確に定義されたソフトウェアコーディング標準に準拠して、曖昧で安全でない、未定義のコンストラクトの使用を防止するためのコーディングガイドラインを強制するガイダンス文書である。
大規模言語モデル(LLM)は、C++を含む幅広いプログラミング言語で自動コード生成機能を示す。
優れた性能にもかかわらず、安全クリティカルなドメインでLLMが生成したコードは、MISRA C++のコーディング標準に従って慎重に分析されなければならない。
本稿では,OpenAI ChatGPT,Google Gemini,DeepSeek,Meta AI,Microsoft Copilotなど,人気のあるLLMが生成するC++コードの比較分析を行った。
関連論文リスト
- Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis [10.268191178804168]
本稿では,Large Language Models (LLM) が生成するコードのセキュリティを,異なるプログラミング言語間で解析する。
我々の研究によると、LLMはコード生成を自動化できるが、そのセキュリティの有効性は言語によって異なる。
論文 参考訳(メタデータ) (2025-02-03T22:03:13Z) - Synthetic Programming Elicitation for Text-to-Code in Very Low-Resource Programming and Formal Languages [21.18996339478024]
SPEAC(emphsynthetic programming elicitation and compilation)を紹介する。
SPEACは、より頻繁に、意味的正しさを犠牲にすることなく、構文的に正しいプログラムを生成する。
UCLID5形式検証言語のケーススタディにおいて,SPEACの性能を実証的に評価した。
論文 参考訳(メタデータ) (2024-06-05T22:16:19Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Rust for Embedded Systems: Current State, Challenges and Open Problems (Extended Report) [6.414678578343769]
本稿では,組み込みシステムにRUSTを使用する際の現状と課題を総合的に理解するための,最初の体系的研究を行う。
さまざまなカテゴリにまたがる2,836のRUST組込みソフトウェアと5つの静的アプリケーションセキュリティテスト(SAST)ツールのデータセットを収集しました。
既存のRUSTソフトウェアサポートが不十分であること、SASTツールがRUST組み込みソフトウェアの特定の機能に対応できないこと、そして既存のRUSTソフトウェアにおける高度な型の導入が、相互運用可能なコードのエンジニアリングを困難にしていることを発見した。
論文 参考訳(メタデータ) (2023-11-08T23:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。