論文の概要: Generating Automotive Code: Large Language Models for Software Development and Verification in Safety-Critical Systems
- arxiv url: http://arxiv.org/abs/2506.04038v1
- Date: Wed, 04 Jun 2025 15:01:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.400109
- Title: Generating Automotive Code: Large Language Models for Software Development and Verification in Safety-Critical Systems
- Title(参考訳): 自動車コードの生成: ソフトウェア開発のための大規模言語モデルと安全クリティカルシステムにおける検証
- Authors: Sven Kirchner, Alois C. Knoll,
- Abstract要約: このフレームワークは、C++などの言語でコード生成を自動化するために、LLM(Large Language Models)を使用している。
フィードバック駆動パイプラインは、安全基準に準拠したテスト、シミュレーション、検証の統合を保証する。
- 参考スコア(独自算出の注目度): 21.595590728109226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing safety-critical automotive software presents significant challenges due to increasing system complexity and strict regulatory demands. This paper proposes a novel framework integrating Generative Artificial Intelligence (GenAI) into the Software Development Lifecycle (SDLC). The framework uses Large Language Models (LLMs) to automate code generation in languages such as C++, incorporating safety-focused practices such as static verification, test-driven development and iterative refinement. A feedback-driven pipeline ensures the integration of test, simulation and verification for compliance with safety standards. The framework is validated through the development of an Adaptive Cruise Control (ACC) system. Comparative benchmarking of LLMs ensures optimal model selection for accuracy and reliability. Results demonstrate that the framework enables automatic code generation while ensuring compliance with safety-critical requirements, systematically integrating GenAI into automotive software engineering. This work advances the use of AI in safety-critical domains, bridging the gap between state-of-the-art generative models and real-world safety requirements.
- Abstract(参考訳): 安全クリティカルな自動車ソフトウェアの開発は、システムの複雑さと厳格な規制要求の増加による重大な課題を呈している。
本稿では,ジェネレーティブ・人工知能(GenAI)をソフトウェア開発ライフサイクル(SDLC)に統合する新しいフレームワークを提案する。
このフレームワークはLarge Language Models(LLM)を使用して、C++などの言語でコード生成を自動化する。
フィードバック駆動パイプラインは、安全基準に準拠したテスト、シミュレーション、検証の統合を保証する。
このフレームワークは、Adaptive Cruise Control (ACC) システムの開発を通じて検証されている。
LLMの比較ベンチマークにより、精度と信頼性に最適なモデル選択が可能である。
このフレームワークは,安全上の要件を満たすと同時に,GenAIをシステム的に自動車ソフトウェア工学に統合することで,自動コード生成を可能にすることを示す。
この作業は、安全クリティカルなドメインにおけるAIの使用を促進し、最先端の生成モデルと現実世界の安全性要件のギャップを埋める。
関連論文リスト
- Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Automating Safety Enhancement for LLM-based Agents with Synthetic Risk Scenarios [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Generative AI for Autonomous Driving: Frontiers and Opportunities [145.6465312554513]
この調査は、自律運転スタックにおけるGenAIの役割の包括的合成を提供する。
まず、VAE、GAN、拡散モデル、および大規模言語モデルを含む、現代の生成モデリングの原則とトレードオフを蒸留することから始めます。
我々は、合成データ一般化、エンドツーエンド駆動戦略、高忠実なデジタルツインシステム、スマートトランスポートネットワーク、具体化されたAIへのクロスドメイン転送など、実用的な応用を分類する。
論文 参考訳(メタデータ) (2025-05-13T17:59:20Z) - Engineering Risk-Aware, Security-by-Design Frameworks for Assurance of Large-Scale Autonomous AI Models [0.0]
本稿では,大規模自律型AIシステムを対象とした企業レベルのリスク認識型セキュリティ・バイ・デザイン手法を提案する。
敵的および運用的ストレス下でのモデル動作の証明可能な保証を提供する統一パイプラインについて詳述する。
国家安全保障、オープンソースモデルガバナンス、産業自動化におけるケーススタディは、脆弱性とコンプライアンスのオーバーヘッドの計測可能な削減を実証している。
論文 参考訳(メタデータ) (2025-05-09T20:14:53Z) - Automating Automotive Software Development: A Synergy of Generative AI and Formal Methods [4.469600208122469]
我々は、GenAIとモデル駆動エンジニアリングを組み合わせることで、自動車ソフトウェア開発を自動化することを提案する。
提案手法では,LLMを用いて自由文要求をイベントチェーン記述に変換し,プラットフォームに依存しないソフトウェアコンポーネントを生成する。
提案手法の実装には GPT-4o を用い, ROS2 を用いた CARLA シミュレーション環境で実験を行った。
論文 参考訳(メタデータ) (2025-05-05T09:29:13Z) - A Path Less Traveled: Reimagining Software Engineering Automation via a Neurosymbolic Paradigm [9.900581015679935]
本稿では,ニューロシンボリック・ソフトウェア・エンジニアリングを,ニューラルネットワークとシンボリック(ルールベース)推論を組み合わせた有望なパラダイムとして提案する。
このハイブリッド方法論は、AI駆動ソフトウェアエンジニアリングの効率性、信頼性、透明性を高めることを目的としている。
論文 参考訳(メタデータ) (2025-05-04T22:10:21Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
MLLM(Multimodal Large Language Models)は、視覚データとテキストデータの両方を処理する。
構造化されていない知識と構造化されていない知識の両方を取り入れることでMLLMベースの自動運転システムを強化する新しいフレームワークであるSafeAutoを提案する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - Concept-Guided LLM Agents for Human-AI Safety Codesign [6.603483691167379]
ジェネレーティブAIは、安全工学を含むソフトウェア工学においてますます重要になっている。
ソフトウェアシステムの複雑さと安全性を効果的に解決できる、より高度で高度なアプローチを開発することが重要です。
安全解析やヒューマンAI符号設計に大規模言語モデルを活用するための,効率的かつハイブリッドな戦略を提案する。
論文 参考訳(メタデータ) (2024-04-03T11:37:01Z) - On STPA for Distributed Development of Safe Autonomous Driving: An Interview Study [0.7851536646859475]
System-Theoretic Process Analysis (STPA)は、防衛や航空宇宙といった安全関連分野に適用される新しい手法である。
STPAは、分散システム開発とマルチアトラクション設計レベルを備えた自動車システム工学において、完全には有効でない前提条件を前提としている。
これは継続的開発とデプロイメントにおける保守性の問題と見なすことができる。
論文 参考訳(メタデータ) (2024-03-14T15:56:02Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。