論文の概要: Code Swarm: A Code Generation Tool Based on the Automatic Derivation of
Transformation Rule Set
- arxiv url: http://arxiv.org/abs/2312.01524v1
- Date: Sun, 3 Dec 2023 22:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 16:57:59.895674
- Title: Code Swarm: A Code Generation Tool Based on the Automatic Derivation of
Transformation Rule Set
- Title(参考訳): Code Swarm: 変換ルールセットの自動導出に基づくコード生成ツール
- Authors: Hina Mahmood, Atif Aftab Jilani, Abdul Rauf
- Abstract要約: 我々は、システム設計モデルから実装コードを自動的に生成するCode Swarmという新しいツール、CodSを紹介した。
この結果から,CodSが生成したコードは入力設計モデルと一致していることが示唆された。
- 参考スコア(独自算出の注目度): 0.7182245711235297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic generation of software code from system design models remains an
actively explored research area for the past several years. A number of tools
are currently available to facilitate and automate the task of generating code
from software models. To the best of our knowledge, existing software tools
rely on an explicitly defined transformation rule set to perform the
model-to-code transformation process. In this paper, we introduce a novel tool
named Code Swarm, abbreviated as CodS, that automatically generates
implementation code from system design models by utilizing a swarm-based
approach. Specifically, CodS is capable of generating Java code from the class
and state models of the software system by making use of the previously solved
model-to-code transformation examples. Our tool enables the designers to
specify behavioural actions in the input models using the Action Specification
Language (ASL). We use an industrial case study of the Elevator Control System
(ECS) to perform the experimental validation of our tool. Our results indicate
that the code generated by CodS is correct and consistent with the input design
models. CodS performs the process of automatic code generation without taking
the explicit transformation rule set or languages metamodels information as
input, which distinguishes it from all the existing automatic code generation
tools.
- Abstract(参考訳): システム設計モデルからのソフトウェアコードの自動生成は、過去数年間、活発に研究されてきた研究領域である。
ソフトウェアモデルからコードを生成する作業を容易かつ自動化するために、現在、多くのツールが利用可能である。
私たちの知る限りでは、既存のソフトウェアツールはモデルからコードへの変換プロセスを実行するために明示的に定義された変換ルールセットに依存しています。
本稿では,swarmベースのアプローチを用いてシステム設計モデルから実装コードを自動的に生成する,cods(code swarm)という新しいツールを提案する。
特にCodSは、以前に解決されたモデル間変換の例を利用して、ソフトウェアシステムのクラスとステートモデルからJavaコードを生成することができる。
我々のツールは、設計者がASL(Action Specification Language)を使用して入力モデルに振る舞いのアクションを指定できるようにします。
我々は,本ツールの実験検証を行うために,エレベータ制御システム(ecs)のインダストリアルケーススタディを用いた。
その結果,CodSが生成したコードは入力設計モデルと一致していることがわかった。
CodSは、明示的な変換ルールセットや言語メタモデル情報を入力として取ることなく、自動コード生成プロセスを実行し、既存の自動コード生成ツールと区別する。
関連論文リスト
- Development of an automatic modification system for generated programs using ChatGPT [0.12233362977312943]
OpenAIのChatGPTは自然言語処理タスクに優れ、ソースコードも生成できる。
我々はChatGPTで生成されたコードをテストし、不適切であれば自動的に修正し、適切なコードをユーザに提示するシステムを開発した。
論文 参考訳(メタデータ) (2024-07-10T08:54:23Z) - Granite Code Models: A Family of Open Foundation Models for Code Intelligence [37.946802472358996]
コードでトレーニングされた大規模言語モデル(LLM)は、ソフトウェア開発プロセスに革命をもたらしています。
LLMは、人間のプログラマの生産性を向上させるために、ソフトウェア開発環境に統合されています。
コード生成タスクのためのデコーダのみのコードモデルであるGraniteシリーズを紹介する。
論文 参考訳(メタデータ) (2024-05-07T13:50:40Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保存するために追加情報を埋め込む。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Does Your Neural Code Completion Model Use My Code? A Membership Inference Approach [66.51005288743153]
本稿では,現在のニューラルコード補完モデルの法的および倫理的問題について考察する。
私たちは、もともと分類タスクのために作られたメンバシップ推論アプローチ(CodeMIと呼ばれる)を調整します。
我々は,この適応型アプローチの有効性を,多種多様なニューラルコード補完モデルで評価した。
論文 参考訳(メタデータ) (2024-04-22T15:54:53Z) - Synergy of Large Language Model and Model Driven Engineering for Automated Development of Centralized Vehicular Systems [2.887732304499794]
モデル駆動工学(MDE)とLarge Language Models(LLM)の相乗効果を利用したツールのプロトタイプを提案する。
CARLAシミュレータを用いて、緊急ブレーキのシナリオにおいて、生成されたコードをシミュレーション環境で評価する。
論文 参考訳(メタデータ) (2024-04-08T13:28:11Z) - Automated Code Editing with Search-Generate-Modify [24.96672652375192]
本稿では,コード検索,生成,修正のパワーを活用して,コード編集をより良く合成するためのハイブリッドアプローチを提案する。
SARGAMは、実際の開発者のコード編集動作を模倣するように設計された新しいツールである。
論文 参考訳(メタデータ) (2023-06-10T17:11:21Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Contrastive Learning for Source Code with Structural and Functional
Properties [66.10710134948478]
本稿では,ソースコードの特徴に基づいて事前学習に焦点を当てた,新たな自己教師型モデルBOOSTを提案する。
私たちは、機能的に等価なコードを生成する自動化された構造誘導型コード変換アルゴリズムを採用しています。
私たちは、対照的な学習目標を通じて、機能的に等価なコードをより近く、異なるコードに近づける方法で、モデルをトレーニングします。
論文 参考訳(メタデータ) (2021-10-08T02:56:43Z) - CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for
Code Understanding and Generation [36.47905744758698]
我々は、開発者が指定した識別子から伝達されるコードセマンティクスをよりよく活用する、事前訓練されたエンコーダ-デコーダ変換モデルであるCodeT5を提案する。
我々のモデルは、コード理解と生成タスクの両方をシームレスにサポートし、マルチタスク学習を可能にする統一的なフレームワークを採用している。
論文 参考訳(メタデータ) (2021-09-02T12:21:06Z) - CodeBERT: A Pre-Trained Model for Programming and Natural Languages [117.34242908773061]
CodeBERTは、プログラミング言語(PL)とナット言語(NL)のための事前訓練されたモデルである。
我々はTransformerベースのニューラルアーキテクチャを用いたCodeBERTを開発した。
モデルパラメータの微調整による2つのNL-PLアプリケーション上でのCodeBERTの評価を行った。
論文 参考訳(メタデータ) (2020-02-19T13:09:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。