論文の概要: Leveraging LLMs to support co-evolution between definitions and instances of textual DSLs
- arxiv url: http://arxiv.org/abs/2512.06836v1
- Date: Sun, 07 Dec 2025 13:17:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.546437
- Title: Leveraging LLMs to support co-evolution between definitions and instances of textual DSLs
- Title(参考訳): LLMを活用して定義とテキストDSLのインスタンス間の共進化をサポートする
- Authors: Weixing Zhang, Regina Hebig, Daniel Strüber,
- Abstract要約: 本研究では,Large Language Model (LLM) を用いた文法とインスタンス共進化の実現の可能性について検討する。
Claude-3.5 と GPT-4o の2つの先進言語モデルを適用し、7つのケース言語で実験を行い、本手法の有効性と限界を評価した。
- 参考スコア(独自算出の注目度): 4.005603658378095
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Software languages evolve over time for various reasons, such as the addition of new features. When the language's grammar definition evolves, textual instances that originally conformed to the grammar become outdated. For DSLs in a model-driven engineering context, there exists a plethora of techniques to co-evolve models with the evolving metamodel. However, these techniques are not geared to support DSLs with a textual syntax -- applying them to textual language definitions and instances may lead to the loss of information from the original instances, such as comments and layout information, which are valuable for software comprehension and maintenance. This study explores the potential of Large Language Model (LLM)-based solutions in achieving grammar and instance co-evolution, with attention to their ability to preserve auxiliary information when directly processing textual instances. By applying two advanced language models, Claude-3.5 and GPT-4o, and conducting experiments across seven case languages, we evaluated the feasibility and limitations of this approach. Our results indicate a good ability of the considered LLMs for migrating textual instances in small-scale cases with limited instance size, which are representative of a subset of cases encountered in practice. In addition, we observe significant challenges with the scalability of LLM-based solutions to larger instances, leading to insights that are useful for informing future research.
- Abstract(参考訳): ソフトウェア言語は、新機能の追加など、様々な理由で時間をかけて進化します。
言語の文法定義が進化すると、もともと文法に準拠したテキストインスタンスは時代遅れになる。
モデル駆動エンジニアリングのコンテキストにおけるDSLには、進化するメタモデルとモデルを共進化させるテクニックがたくさんあります。
しかし、これらのテクニックは、テキストの構文でDSLをサポートするように設計されていない -- テキストの言語定義に適用することで、コメントやレイアウト情報といった、ソフトウェアの理解とメンテナンスに価値のある、元のインスタンスからの情報を失う可能性がある。
本研究は,テキストインスタンスを直接処理する際の補助情報を保存する能力に着目し,文法とインスタンス共進化を実現するためのLarge Language Model (LLM) ベースのソリューションの可能性を検討する。
Claude-3.5 と GPT-4o の2つの先進言語モデルを適用し、7つのケース言語で実験を行い、本手法の有効性と限界を評価した。
この結果から,小規模の事例において,実際に遭遇した事例のサブセットを代表してテキストインスタンスを移行する上で,LLMが有効であることが示唆された。
さらに、LLMベースのソリューションを大規模インスタンスに拡張する上での重要な課題を観察し、将来の研究を知らせる上で有用な洞察をもたらす。
関連論文リスト
- From Babbling to Fluency: Evaluating the Evolution of Language Models in Terms of Human Language Acquisition [6.617999710257379]
本稿では,LMの能力を評価するための3段階のフレームワークを提案する。
言語研究の手法を用いて, LMの生成能力を評価する。
論文 参考訳(メタデータ) (2024-10-17T06:31:49Z) - Shortcomings of LLMs for Low-Resource Translation: Retrieval and Understanding are Both the Problem [4.830018386227]
本研究では,機械翻訳パイプラインの自動化の一環として,事前学習された大言語モデル(LLM)が低リソース言語から高リソース言語への翻訳を指示する際の文脈内学習能力について検討する。
我々は南ケチュアをスペイン語に翻訳する一連の実験を行い、デジタル化された教育材料と平行コーパスの制約されたデータベースから得られた様々な種類の文脈の情報量について検討する。
論文 参考訳(メタデータ) (2024-06-21T20:02:22Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。