論文の概要: Assessing GPT-4-Vision's Capabilities in UML-Based Code Generation
- arxiv url: http://arxiv.org/abs/2404.14370v1
- Date: Mon, 22 Apr 2024 17:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 13:08:10.035932
- Title: Assessing GPT-4-Vision's Capabilities in UML-Based Code Generation
- Title(参考訳): UMLに基づくコード生成におけるGPT-4-Visionの能力評価
- Authors: Gábor Antal, Richárd Vozár, Rudolf Ferenc,
- Abstract要約: GPT-4-Visionは最先端のディープラーニングモデルである。
UML(Unified Modeling Language)クラスダイアグラムを完全なJavaクラスファイルに変換することができる。
- 参考スコア(独自算出の注目度): 0.5789654849162464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of advanced neural networks has opened up new ways in automated code generation from conceptual models, promising to enhance software development processes. This paper presents a preliminary evaluation of GPT-4-Vision, a state-of-the-art deep learning model, and its capabilities in transforming Unified Modeling Language (UML) class diagrams into fully operating Java class files. In our study, we used exported images of 18 class diagrams comprising 10 single-class and 8 multi-class diagrams. We used 3 different prompts for each input, and we manually evaluated the results. We created a scoring system in which we scored the occurrence of elements found in the diagram within the source code. On average, the model was able to generate source code for 88% of the elements shown in the diagrams. Our results indicate that GPT-4-Vision exhibits proficiency in handling single-class UML diagrams, successfully transforming them into syntactically correct class files. However, for multi-class UML diagrams, the model's performance is weaker compared to single-class diagrams. In summary, further investigations are necessary to exploit the model's potential completely.
- Abstract(参考訳): 高度なニューラルネットワークの出現は、概念モデルから自動コード生成の新しい方法を開き、ソフトウェア開発プロセスを強化することを約束している。
本稿では、最先端のディープラーニングモデルであるGPT-4-Visionの予備評価と、Unified Modeling Language(UML)クラス図を完全なJavaクラスファイルに変換する機能について述べる。
そこで本研究では,10のシングルクラス図と8のマルチクラス図からなる18のクラス図のエクスポート画像を用いた。
入力毎に3つの異なるプロンプトを使い、手動で結果を評価しました。
ソースコード内のダイアグラムに現れる要素をスコアリングするシステムを作成しました。
平均して、このモデルは図に示す要素の88%のソースコードを生成することができた。
以上の結果から,GPT-4-Visionは単一クラスUML図の処理能力を示し,それらを構文的に正しいクラスファイルに変換することに成功した。
しかし、マルチクラスのUMLダイアグラムの場合、モデルの性能はシングルクラスのダイアグラムよりも弱い。
要約すると、モデルの可能性を完全に活用するには、さらなる調査が必要である。
関連論文リスト
- Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - From Image to UML: First Results of Image Based UML Diagram Generation Using LLMs [1.961305559606562]
ソフトウェア工学のプロセスでは、システムはまずモデリング言語を使って指定される。
大規模言語モデル(LLM)は、与えられた図面からUMLモデルの形式表現を生成するために使用される。
より具体的には、クラス図の画像を画像に表される実際のモデルに変換するための異なるLCMの能力を評価した。
論文 参考訳(メタデータ) (2024-04-17T13:33:11Z) - Finer: Investigating and Enhancing Fine-Grained Visual Concept
Recognition in Large Vision Language Models [68.46457611340097]
詳細な分析では、命令調整されたLVLMはモダリティギャップを示し、同じ概念に対応するテキスト入力と視覚入力の相違を示す。
我々は,LVLMの細粒度視覚理解能力を評価するために,複数の属性中心評価ベンチマークであるFinerを提案し,説明可能性を大幅に改善した。
論文 参考訳(メタデータ) (2024-02-26T05:43:51Z) - Vi(E)va LLM! A Conceptual Stack for Evaluating and Interpreting
Generative AI-based Visualizations [1.709620026135923]
大規模言語モデル(LLM)は、可視化に関連する生成タスクをサポートするための興味深い選択肢となっている。
本稿では,LLMを用いて生成した可視化の評価をモデル化する問題に対処する。
本稿では,原子部品の評価を分解する理論評価スタックEvaLLMを提案する。
論文 参考訳(メタデータ) (2024-02-03T14:28:55Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - Class-level Structural Relation Modelling and Smoothing for Visual
Representation Learning [12.247343963572732]
本稿では、視覚表現学習のためのbfクラスレベルの構造関係モデリングと平滑化というフレームワークを提案する。
クラスレベルの関係モデリング、クラス対応グラフガイドサンプリング、グラフガイド表現学習モジュールが含まれる。
実験では、構造化知識モデリングによる表現学習の有効性を実証し、CSRMSを任意の最先端の視覚的表現学習モデルに組み込むことにより、パフォーマンス向上を図っている。
論文 参考訳(メタデータ) (2023-08-08T09:03:46Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Visual Instruction Tuning [79.70923292053097]
本稿では,言語のみの GPT-4 を用いてマルチモーダルな言語イメージ命令追跡データを生成する試みについて紹介する。
このようなデータに対して,LLaVA: Large Language and Vision Assistantを導入する。
科学QAを微調整すると、LLaVAとGPT-4の相乗効果は92.53%の新しい最先端精度を達成する。
論文 参考訳(メタデータ) (2023-04-17T17:59:25Z) - Graph Few-shot Class-incremental Learning [25.94168397283495]
新しいクラスを段階的に学習する能力は、すべての現実世界の人工知能システムにとって不可欠である。
本稿では,グラフFCL(Graph Few-shot Class-incremental)問題について検討する。
基本クラスから繰り返しタスクをサンプリングすることでグラフ擬似インクリメンタルラーニングパラダイムを提案する。
本稿では,タスクレベルの注意とノードクラスのプロトタイプから計算したタスク依存型正規化器について述べる。
論文 参考訳(メタデータ) (2021-12-23T19:46:07Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - Classification of Reverse-Engineered Class Diagram and
Forward-Engineered Class Diagram using Machine Learning [0.0]
ソフトウェア業界では、どのタイプのクラス図なのかを知ることが重要です。
特定のプロジェクトで使われたダイアグラムは、知っておくべき重要な要素なのでしょうか?
本稿では,教師付き機械学習技術を用いてこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2020-11-14T14:56:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。