論文の概要: Software Defined Vehicle Code Generation: A Few-Shot Prompting Approach
- arxiv url: http://arxiv.org/abs/2511.04849v1
- Date: Thu, 06 Nov 2025 22:27:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.608173
- Title: Software Defined Vehicle Code Generation: A Few-Shot Prompting Approach
- Title(参考訳): ソフトウェア定義の車両コード生成 - 簡単なプロンプトアプローチ
- Authors: Quang-Dung Nguyen, Tri-Dung Tran, Thanh-Hieu Chu, Hoang-Loc Tran, Xiangwei Cheng, Dirk Slama,
- Abstract要約: 汎用大規模言語モデル (LLM) は、ドメイン間の変換ポテンシャルを実証している。
本研究は, LLMと対話し, 応答をリダイレクトするための共通かつ基本的な手法であるプロンプトを用いることを提案する。
高度なプロンプト技術を用いて設計された適切な効率的なプロンプト構造を持つシステムプロンプトのみを用いることで、LLMはトレーニングセッションや基本設計へのアクセスを必要とせずに製造することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of Software-Defined Vehicles (SDVs) marks a paradigm shift in the automotive industry, where software now plays a pivotal role in defining vehicle functionality, enabling rapid innovation of modern vehicles. Developing SDV-specific applications demands advanced tools to streamline code generation and improve development efficiency. In recent years, general-purpose large language models (LLMs) have demonstrated transformative potential across domains. Still, restricted access to proprietary model architectures hinders their adaption to specific tasks like SDV code generation. In this study, we propose using prompts, a common and basic strategy to interact with LLMs and redirect their responses. Using only system prompts with an appropriate and efficient prompt structure designed using advanced prompt engineering techniques, LLMs can be crafted without requiring a training session or access to their base design. This research investigates the extensive experiments on different models by applying various prompting techniques, including bare models, using a benchmark specifically created to evaluate LLMs' performance in generating SDV code. The results reveal that the model with a few-shot prompting strategy outperforms the others in adjusting the LLM answers to match the expected outcomes based on quantitative metrics.
- Abstract(参考訳): Software-Defined Vehicles (SDVs) の出現は、自動車産業におけるパラダイムシフトであり、現在ではソフトウェアが車両機能の定義において重要な役割を担い、近代的な車両の急速な革新を可能にしている。
SDV固有のアプリケーションを開発するには、コード生成を効率化し、開発効率を向上させるための高度なツールが必要である。
近年,汎用大規模言語モデル (LLM) はドメイン間の変換可能性を示している。
それでも、プロプライエタリなモデルアーキテクチャへのアクセス制限は、SDVコード生成のような特定のタスクへの適応を妨げる。
本研究では,LLMと対話し,その応答をリダイレクトするための共通かつ基本的な戦略であるプロンプトを用いた手法を提案する。
高度なプロンプト技術を用いて設計された適切な効率的なプロンプト構造を持つシステムプロンプトのみを用いることで、LLMはトレーニングセッションや基本設計へのアクセスを必要とせずに製造することができる。
本研究では,SDV コード生成における LLM の性能を評価するために特別に作成されたベンチマークを用いて,素モデルを含む様々なプロンプト技術を適用し,様々なモデルに対する広範な実験を行った。
その結果,数発のプロンプト戦略を持つモデルでは,LCMの回答を定量的な測定値に基づく期待結果と一致させるために,他のモデルよりも優れていたことが明らかとなった。
関連論文リスト
- Speed Always Wins: A Survey on Efficient Architectures for Large Language Models [51.817121227562964]
大規模言語モデル(LLM)は、言語理解、生成、推論、マルチモーダルモデルの能力境界の押し付けにおいて、素晴らしい結果をもたらしている。
トランスフォーマーモデルは、現代のLLMの基礎として、優れたスケーリング特性を備えた強力なベースラインを提供する。
従来のトランスフォーマーアーキテクチャは、相当な計算を必要とし、大規模なトレーニングと実践的なデプロイメントに重大な障害を生じさせる。
論文 参考訳(メタデータ) (2025-08-13T14:13:46Z) - JARVIS: A Multi-Agent Code Assistant for High-Quality EDA Script Generation [3.6946337486060776]
JARVISは、LLM(Large Language Models)とドメインの専門知識を活用して、EDAタスクのための高品質なスクリプトを生成する、新しいマルチエージェントフレームワークである。
合成データを用いて訓練されたドメイン固有LLM, 構造検証, ルール強制, コード修正機能, 高度な検索機構のカスタムコンパイラを組み合わせることにより, 本手法は最先端のドメイン固有モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-05-20T23:40:57Z) - Large Language Models for Code Generation: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications [0.9105696129628794]
大規模言語モデル(LLM)は多くの分野においてその顕著な能力を示している。
この調査は、LLMがユーザに対して、技術的背景に関係なく、ヒューマン言語を使用して実行可能なコードを自動的に生成する方法に焦点を当てている。
論文 参考訳(メタデータ) (2025-03-03T07:17:30Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。