論文の概要: Accurate and Consistent Graph Model Generation from Text with Large Language Models
- arxiv url: http://arxiv.org/abs/2508.00255v1
- Date: Fri, 01 Aug 2025 01:52:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.707097
- Title: Accurate and Consistent Graph Model Generation from Text with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたテキストからの高精度かつ一貫性のあるグラフモデル生成
- Authors: Boqi Chen, Ou Wei, Bingzhou Zheng, Gunter Mussbacher,
- Abstract要約: 自然言語記述からグラフモデルを生成することは、ソフトウェア工学における多くのアプリケーションにとって重要なタスクである。
大規模言語モデル(LLM)の台頭に伴い、グラフモデル生成にLLMを使うことへの関心が高まっている。
本稿では,生成したグラフモデルの一貫性と品質を向上させる新しい抽象化・拡張フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.9049294570026933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph model generation from natural language description is an important task with many applications in software engineering. With the rise of large language models (LLMs), there is a growing interest in using LLMs for graph model generation. Nevertheless, LLM-based graph model generation typically produces partially correct models that suffer from three main issues: (1) syntax violations: the generated model may not adhere to the syntax defined by its metamodel, (2) constraint inconsistencies: the structure of the model might not conform to some domain-specific constraints, and (3) inaccuracy: due to the inherent uncertainty in LLMs, the models can include inaccurate, hallucinated elements. While the first issue is often addressed through techniques such as constraint decoding or filtering, the latter two remain largely unaddressed. Motivated by recent self-consistency approaches in LLMs, we propose a novel abstraction-concretization framework that enhances the consistency and quality of generated graph models by considering multiple outputs from an LLM. Our approach first constructs a probabilistic partial model that aggregates all candidate outputs and then refines this partial model into the most appropriate concrete model that satisfies all constraints. We evaluate our framework on several popular open-source and closed-source LLMs using diverse datasets for model generation tasks. The results demonstrate that our approach significantly improves both the consistency and quality of the generated graph models.
- Abstract(参考訳): 自然言語記述からグラフモデルを生成することは、ソフトウェア工学における多くのアプリケーションにとって重要なタスクである。
大規模言語モデル(LLM)の台頭に伴い、グラフモデル生成にLLMを使うことへの関心が高まっている。
構文違反: 生成されたモデルはメタモデルによって定義された構文に従わないかもしれない (2) 制約の不整合: モデルの構造はいくつかのドメイン固有の制約に従わないかもしれない (3) 不正確性: LLMに固有の不確実性のため、モデルは不正確で幻覚的要素を含むことができる。
最初の問題は制約復号やフィルタリングといった手法で対処されることが多いが、後者の2つは概ね未適応である。
LLMにおける最近の自己整合性アプローチにより、LLMからの複数の出力を考慮し、生成したグラフモデルの一貫性と品質を向上させる新しい抽象化・拡張フレームワークを提案する。
提案手法はまず,すべての候補出力を集約した確率的部分モデルを構築し,その部分モデルをすべての制約を満たす最も適切な具体的なモデルに洗練する。
我々は,モデル生成タスクの多様なデータセットを用いて,いくつかの人気のあるオープンソースおよびクローズドソース LLM 上で,我々のフレームワークを評価する。
その結果,提案手法は生成したグラフモデルの一貫性と品質の両方を著しく改善することが示された。
関連論文リスト
- GPTailor: Large Language Model Pruning Through Layer Cutting and Stitching [41.96482857947199]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
LLMは通常、相当なモデルサイズを持ち、デプロイメントと推論において大きな課題をもたらします。
そこで我々は, モデルモデルから層を戦略的に組み合わせたり, マージしたりすることで, モデルを圧縮するための新しい戦略を開発した。
論文 参考訳(メタデータ) (2025-06-25T14:24:59Z) - CP-Bench: Evaluating Large Language Models for Constraint Modelling [6.273426548149088]
制約プログラミング(CP)は、よく適合した問題解決パラダイムであるが、その中核となるプロセス、すなわち制約モデリングは、広く採用されるボトルネックである。
近年,Large Language Models (LLM) をモデリングアシスタントとして使用し,問題記述を実行可能な制約モデルに変換する研究が行われている。
CP-Benchは、様々な既知の問題クラスを含む新しいベンチマークデータセットである。
論文 参考訳(メタデータ) (2025-06-06T12:56:02Z) - Unifying Multimodal Large Language Model Capabilities and Modalities via Model Merging [103.98582374569789]
モデルマージは、複数のエキスパートモデルを単一のモデルにまとめることを目的としており、ストレージとサービスコストを削減している。
これまでの研究は主に、コードと数学のタスクに視覚分類モデルやLLM(Large Language Models)を統合することに焦点を当ててきた。
本稿では,VQA,Geometry,Chart,OCR,Gundingといった複数のタスクを含むMLLMのモデルマージベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Model-GLUE: Democratized LLM Scaling for A Large Model Zoo in the Wild [84.57103623507082]
本稿では,全体論的な大規模言語モデルスケーリングガイドラインであるModel-GLUEを紹介する。
既存のスケーリングテクニック,特に選択的マージ,および混合の変種をベンチマークする。
次に、異種モデル動物園の選択と集約のための最適な戦略を定式化する。
我々の手法は、マージ可能なモデルのクラスタリング、最適なマージ戦略選択、クラスタの統合を含む。
論文 参考訳(メタデータ) (2024-10-07T15:55:55Z) - Unlocking the Potential of Model Merging for Low-Resource Languages [66.7716891808697]
大規模言語モデルを新しい言語に適応させるには、通常、継続事前訓練(CT)と、教師付き微調整(SFT)が含まれる。
我々は低リソース言語の代替としてモデルマージを提案し、異なる機能を持つモデルを追加トレーニングなしで単一のモデルに組み合わせる。
Llama-2-7Bをベースとした実験により、モデルマージはタスク解決能力の低い低リソース言語に対して、極めて少ないデータを持つシナリオにおいて、CT-then-SFTよりも優れていることが実証された。
論文 参考訳(メタデータ) (2024-07-04T15:14:17Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Entity Matching using Large Language Models [3.7277730514654555]
本稿では, PLM ベースのマーカに代わる, タスク固有の訓練データ依存モデルとして, LLM (Generative Large Language Model) を用いて検討する。
GPT4は一致判定のための構造化された説明を生成でき、一致した誤りの原因を自動的に特定できることを示す。
論文 参考訳(メタデータ) (2023-10-17T13:12:32Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。