論文の概要: LLM-Based Approach for Enhancing Maintainability of Automotive Architectures
- arxiv url: http://arxiv.org/abs/2509.12798v1
- Date: Tue, 16 Sep 2025 08:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.962338
- Title: LLM-Based Approach for Enhancing Maintainability of Automotive Architectures
- Title(参考訳): LLMによる自動車アーキテクチャの保守性向上
- Authors: Nenad Petrovic, Lukasz Mazur, Alois Knoll,
- Abstract要約: 本稿では,自動車システムの柔軟性向上を目的としたタスクやプロセスの自動化について,LLM(Large Language Models)の可能性を検討する。
1) アップデート,ハードウェア抽象化,コンプライアンス,2) インターフェースの互換性チェック,3) アーキテクチャ変更提案の3つのケーススタディが早期研究の結果であると考えられる。
概念実証の実装では、OpenAIのGPT-4oモデルに依存しています。
- 参考スコア(独自算出の注目度): 29.585470064353014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are many bottlenecks that decrease the flexibility of automotive systems, making their long-term maintenance, as well as updates and extensions in later lifecycle phases increasingly difficult, mainly due to long re-engineering, standardization, and compliance procedures, as well as heterogeneity and numerosity of devices and underlying software components involved. In this paper, we explore the potential of Large Language Models (LLMs) when it comes to the automation of tasks and processes that aim to increase the flexibility of automotive systems. Three case studies towards achieving this goal are considered as outcomes of early-stage research: 1) updates, hardware abstraction, and compliance, 2) interface compatibility checking, and 3) architecture modification suggestions. For proof-of-concept implementation, we rely on OpenAI's GPT-4o model.
- Abstract(参考訳): 自動車システムの柔軟性を低下させ、長期のメンテナンスとその後のライフサイクルフェーズの更新と拡張を困難にしているボトルネックは、主に長期のエンジニアリング、標準化、コンプライアンス手順、さらにはデバイスやその基盤となるソフトウェアコンポーネントの不均一性や無数性によるものである。
本稿では,自動車システムの柔軟性向上を目的としたタスクやプロセスの自動化について,LLM(Large Language Models)の可能性を検討する。
この目標達成に向けた3つのケーススタディは、早期研究の結果と見なされている。
1)アップデート、ハードウェア抽象化、コンプライアンス
2)インターフェース互換性チェック,および
3) アーキテクチャの変更提案。
概念実証の実装では、OpenAIのGPT-4oモデルに依存しています。
関連論文リスト
- ASIL-Decomposition Based Resource Allocation Optimization for Automotive E/E Architectures [0.4143603294943439]
ソフトウェアコンポーネントを利用可能なハードウェアリソースに自動的にマッピングするアプローチを提案する。
既存のフレームワークと比較して,本手法はISO 26262規格に準拠した幅広い安全性解析を提供する。
我々は,臨界関数連鎖の開発コストと最大実行時間の両方を最小化するために,多目的最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-05-10T15:48:29Z) - Advancing AI-assisted Hardware Design with Hierarchical Decentralized Training and Personalized Inference-Time Optimization [3.29494205026308]
大規模言語モデル(LLM)は、AIによるハードウェア設計生成に大きな関心を呼んだ。
LLMによるハードウェア設計生成を阻害する3つの重要な課題を同定する。
本稿では、分散トレーニングとパーソナライズされた推論を探索し、AI支援ハードウェア設計のための2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-21T15:41:28Z) - DriveTransformer: Unified Transformer for Scalable End-to-End Autonomous Driving [62.62464518137153]
DriveTransformerは、スケールアップを簡単にするためのシンプルなE2E-ADフレームワークである。
タスク・セルフ・アテンション、センサー・クロス・アテンション、時間的クロス・アテンションという3つの統合された操作で構成されている。
シミュレーションされたクローズドループベンチマークBench2Driveと、FPSの高い実世界のオープンループベンチマークnuScenesの両方で、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-07T11:41:18Z) - A Survey of Model Architectures in Information Retrieval [59.61734783818073]
2019年から現在までの期間は、情報検索(IR)と自然言語処理(NLP)における最大のパラダイムシフトの1つとなっている。
従来の用語ベースの手法から現代のニューラルアプローチまで,特にトランスフォーマーベースのモデルとそれに続く大規模言語モデル(LLM)の影響が注目されている。
今後の課題と今後の方向性について、先見的な議論で締めくくります。
論文 参考訳(メタデータ) (2025-02-20T18:42:58Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Towards Single-System Illusion in Software-Defined Vehicles -- Automated, AI-Powered Workflow [3.2821049498759094]
本稿では,車載ソフトウェアシステムの開発における,新しいモデルと特徴に基づくアプローチを提案する。
提案されたアプローチの重要なポイントの1つは、近代的な生成AI、特にLarge Language Models(LLM)の導入である。
その結果、パイプラインは広範囲に自動化され、各ステップでフィードバックが生成される。
論文 参考訳(メタデータ) (2024-03-21T15:07:57Z) - Forging Vision Foundation Models for Autonomous Driving: Challenges,
Methodologies, and Opportunities [59.02391344178202]
ビジョンファウンデーションモデル(VFM)は、幅広いAIアプリケーションのための強力なビルディングブロックとして機能する。
総合的なトレーニングデータの不足、マルチセンサー統合の必要性、多様なタスク固有のアーキテクチャは、VFMの開発に重大な障害をもたらす。
本稿では、自動運転に特化したVFMを鍛造する上で重要な課題について述べるとともに、今後の方向性を概説する。
論文 参考訳(メタデータ) (2024-01-16T01:57:24Z) - AutonoML: Towards an Integrated Framework for Autonomous Machine
Learning [9.356870107137095]
Reviewは、自動化された自動MLシステムを構成するものに関して、より広範な視点を動機付けようとしている。
その上で、以下の研究領域の開発状況を調査します。
我々は、各トピックによって拡張されたレビューを通して概念的枠組みを開発し、高レベルなメカニズムを自律mlシステムに融合する方法を1つ紹介する。
論文 参考訳(メタデータ) (2020-12-23T11:01:10Z) - Many-Objective Software Remodularization using NSGA-III [17.487053547108516]
NSGA-IIIを用いた多目的探索手法を提案する。
このプロセスは、パッケージの構造を改善し、変更数を最小化し、セマンティクスの一貫性を保ち、変更の歴史を再利用する最適な再モジュール化ソリューションを見つけることを目的としている。
論文 参考訳(メタデータ) (2020-05-13T18:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。