論文の概要: Behavioral Augmentation of UML Class Diagrams: An Empirical Study of Large Language Models for Method Generation
- arxiv url: http://arxiv.org/abs/2506.00788v1
- Date: Sun, 01 Jun 2025 02:33:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.59184
- Title: Behavioral Augmentation of UML Class Diagrams: An Empirical Study of Large Language Models for Method Generation
- Title(参考訳): UMLクラスダイアグラムの行動拡張:メソッド生成のための大規模言語モデルの実証的研究
- Authors: Djaber Rouabhia, Ismail Hadjadj,
- Abstract要約: 本研究では, 大規模言語モデル(LLM)を用いて, 21 の構造化廃棄物処理事例を用いて, メソドレスダイアグラム(21 クラス, 17 の関係性)を増強する。
合計90の図(3,373の方法)が6回にわたって評価された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automating the enrichment of UML class diagrams with behavioral methods from natural language use cases is a significant challenge. This study evaluates nine large language models (LLMs) in augmenting a methodless UML diagram (21 classes, 17 relationships) using 21 structured waste-management use cases. A total of 90 diagrams (3,373 methods) were assessed across six metrics: method quantity, signature richness (visibility, names, parameters, return types), annotation completeness (linking to use cases/actions), structural fidelity, syntactic correctness (PlantUML compilation), and naming convergence (across models). All LLMs produced valid PlantUML diagrams adhering to UML conventions. Some models excelled in method coverage and annotation accuracy, while others showed richer parameterization but weaker traceability. These results demonstrate that LLMs can generate well-structured methods with consistent naming, advancing automated behavioral modeling. However, inconsistencies in annotations and signatures highlight the need for improved prompt engineering and model selection. The rapid generation of these methods supports Agile practices by enabling faster design iterations. Despite their capabilities, human oversight is essential to ensure accuracy, appropriateness, and semantic alignment. This positions LLMs as collaborative partners in software design. All experimental artifacts (\texttt{.puml}, \texttt{.png}, \texttt{.csv}) are publicly available for reproducibility.
- Abstract(参考訳): 自然言語のユースケースからの振る舞いメソッドによるUMLクラス図の充実を自動化することは、大きな課題です。
本研究では, メソドレスUMLダイアグラム(21のクラス, 17の関連性)を21の構造化廃棄物処理ユースケースを用いて拡張する際に, 9つの大きな言語モデル(LLM)を評価する。
合計90のダイアグラム(3,373の手法)は、メソッド量、シグネチャリッチネス(可視性、名前、パラメータ、戻り型)、アノテーション完全性(ユースケース/アクションにリンクする)、構造的忠実性、構文的正確性(PlantUMLコンパイル)、命名的収束性(全体モデル)の6つの指標で評価された。
すべての LLM は UML の規約に準拠した有効な PlantUML 図を作成しました。
いくつかのモデルはメソッドカバレッジとアノテーションの精度に優れ、あるモデルはよりリッチなパラメータ化を示したが、より弱いトレーサビリティを示した。
これらの結果は、LCMが一貫した命名と自動行動モデリングを推進し、よく構造化された手法を生成できることを実証している。
しかし、アノテーションや署名の不整合は、迅速なエンジニアリングとモデル選択の改善の必要性を浮き彫りにしている。
これらのメソッドの迅速な生成は、より高速な設計イテレーションを可能にすることで、アジャイルプラクティスを支援します。
これらの能力にもかかわらず、人間の監視は正確性、適切性、セマンティックアライメントを保証するために不可欠である。
これにより、LCMはソフトウェア設計の共同パートナーとして位置づけられる。
すべての実験的なアーティファクト (\texttt{)。
puml}, \texttt{。
png}, \texttt{。
csv})は再現性のために公開されている。
関連論文リスト
- Type-Constrained Code Generation with Language Models [51.03439021895432]
本稿では,型システムを利用してコード生成を誘導する型制約デコード手法を提案する。
そこで本研究では,新しい接頭辞オートマトンと,在来型を探索する手法を開発し,LLM生成コードに適切な型付けを強制するための健全なアプローチを構築した。
提案手法は,コード合成,翻訳,修復作業において,コンパイルエラーを半分以上削減し,機能的正しさを著しく向上させる。
論文 参考訳(メタデータ) (2025-04-12T15:03:00Z) - Filter-then-Generate: Large Language Models with Structure-Text Adapter for Knowledge Graph Completion [20.973071287301067]
大規模言語モデル(LLM)は、膨大な固有の知識と優れた意味理解能力を示す。
実証的な証拠は、LLMは従来の知識グラフ補完手法よりも一貫して性能が悪いことを示唆している。
そこで本研究では,これらの課題に対処するために,FtGという命令チューニングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-12T09:22:04Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Coding by Design: GPT-4 empowers Agile Model Driven Development [0.03683202928838613]
この研究は、アジャイルモデル駆動開発(MDD)アプローチを提供し、OpenAIのGPT-4を使ってコードの自動生成を強化する。
私たちの研究は、現行のMDDメソッドへの重要な貢献として"アジリティ"を強調しています。
最終的に、GPT-4を利用して、最後のレイヤはJavaとPythonの両方でコードを自動生成します。
論文 参考訳(メタデータ) (2023-10-06T15:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。