論文の概要: A Hybrid Approach for EMF Code Generation:Code Templates Meet Large Language Models
- arxiv url: http://arxiv.org/abs/2512.05498v1
- Date: Fri, 05 Dec 2025 07:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.942194
- Title: A Hybrid Approach for EMF Code Generation:Code Templates Meet Large Language Models
- Title(参考訳): EMFコード生成のためのハイブリッドアプローチ:大規模言語モデルとコードテンプレート
- Authors: Xiao He, Ru Chen, Zeqing Zhang, Yanling Wang, Qiuyan Dong,
- Abstract要約: iEcoreGenは、Eclipse Modeling Framework(EMF)とLLMを統合するハイブリッドアプローチである。
iEcoreGenは、オペレーション仕様を導出するための要件を分解し、EMFのテンプレートベースのジェネレータを使用して初期Javaコードを生成し、仕様をドキュメントにシリアライズする。
- 参考スコア(独自算出の注目度): 7.176489635263981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Template-based and LLM-based code generation are both key enablers of automated software development. The former provides correctness guarantees but are rigid for complex requirements, whereas LLMs offer high flexibility at the risk of producing faulty code.This paper proposes iEcoreGen, a hybrid approach that integrates Eclipse Modeling Framework (EMF) and LLMs. In EMF, an Ecore model defines a system structure and acts as a blueprint for code-generation.iEcoreGen decomposes requirements to derive operation specifications, uses EMF's template-based generator to produce initial Java code, and serializes specifications into docstrings. LLMs are then invoked to complete and fix unimplemented methods. We assessed iEcoreGen on twenty code-generation tasks across five LLMs. It surpasses LLM-only baselines on pass@k and performs on par with them on compilation@k. An ablation study clarified the contribution of each component of iEcoreGen. Overall, the findings indicate that LLM-enhanced model-driven development is a promising path toward more efficient software automation.
- Abstract(参考訳): テンプレートベースのコード生成とLLMベースのコード生成はどちらも、自動ソフトウェア開発の主要な実現要因である。
前者は正確性を保証するが、複雑な要件に対して厳格であるのに対して、LLMは欠陥コードを生成するリスクの高い高い柔軟性を提供する。この記事では、Eclipse Modeling Framework(EMF)とLLMを統合するハイブリッドアプローチであるiEcoreGenを提案する。
EMFでは、Ecoreモデルはシステム構造を定義し、コード生成の青写真として機能する。iEcoreGenは、オペレーション仕様を導出するための要求を分解し、EMFのテンプレートベースのジェネレータを使用して初期Javaコードを生成し、仕様をドキュメントにシリアライズする。
LLMは、実装されていないメソッドを完了して修正するために呼び出される。
iEcoreGenを5つのLLMにまたがる20のコード生成タスクで評価した。
LLMのみのベースラインをpass@kで上回り、compile@kで同等に実行する。
アブレーション研究はiEcoreGenの各成分の寄与を明らかにした。
全体としては、LLMによって強化されたモデル駆動開発は、より効率的なソフトウェア自動化への有望な道であることを示している。
関連論文リスト
- Aligning Requirement for Large Language Model's Code Generation [9.205909320363247]
Specineは、大規模言語モデル(LLM)コード生成のための新しい仕様アライメント技術である。
その鍵となる考え方は、不整合入力仕様を特定し、LLMが認識した仕様を引き上げ、LLMのコード生成性能を高めるためにそれらを整合させることである。
例えば、Specineは最も効果的なベースラインを上回り、Pass@1ですべての被験者の平均29.60%の改善を達成した。
論文 参考訳(メタデータ) (2025-09-01T09:56:13Z) - HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [24.46771930751068]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - Automatic Generation of Benchmarks and Reliable LLM Judgment for Code Tasks [0.8274693573069442]
この研究は、自動生成されたベンチマークを利用して、LaaJの実装を生成および評価する方法論を導入する。
ベンチマークは、LaaJの開発と検証と、LaaJを使用してLLMコード関連ソリューションの検証とテストの両方に使用される。
私たちのアプローチは、高品質なコードタスクソリューションの作成を可能にします。
論文 参考訳(メタデータ) (2024-10-28T14:34:36Z) - LLM as a code generator in Agile Model Driven Development [0.032771631221674334]
この研究は、これらの課題を克服するための実行可能な戦略としてモデル駆動開発(MDD)を擁護します。
我々は GPT4 をコードジェネレータとして利用する Agile Model Driven Development (AMDD) アプローチを提案する。
GPT4自動生成機能を適用すると、JADEおよびPADEフレームワークと互換性のあるJavaとPythonコードが生成される。
論文 参考訳(メタデータ) (2024-10-24T07:24:11Z) - Open-domain Implicit Format Control for Large Language Model Generation [52.83173553689678]
大規模言語モデル(LLM)における制御生成のための新しいフレームワークを提案する。
本研究では、LLMがオープンドメイン、ワンショット制約に従う能力と、サンプル回答の形式を再現する能力について検討する。
また、出力品質を劣化させることなく、LLMのオープンドメインフォーマット制御を強化する教師付き微調整のためのデータセット収集手法を開発した。
論文 参考訳(メタデータ) (2024-08-08T11:51:45Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。