論文の概要: Leveraging LLMs to support co-evolution between definitions and instances of textual DSLs
- arxiv url: http://arxiv.org/abs/2512.06836v1
- Date: Sun, 07 Dec 2025 13:17:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.546437
- Title: Leveraging LLMs to support co-evolution between definitions and instances of textual DSLs
- Title(参考訳): LLMを活用して定義とテキストDSLのインスタンス間の共進化をサポートする
- Authors: Weixing Zhang, Regina Hebig, Daniel Strüber,
- Abstract要約: 本研究では,Large Language Model (LLM) を用いた文法とインスタンス共進化の実現の可能性について検討する。
Claude-3.5 と GPT-4o の2つの先進言語モデルを適用し、7つのケース言語で実験を行い、本手法の有効性と限界を評価した。
- 参考スコア(独自算出の注目度): 4.005603658378095
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Software languages evolve over time for various reasons, such as the addition of new features. When the language's grammar definition evolves, textual instances that originally conformed to the grammar become outdated. For DSLs in a model-driven engineering context, there exists a plethora of techniques to co-evolve models with the evolving metamodel. However, these techniques are not geared to support DSLs with a textual syntax -- applying them to textual language definitions and instances may lead to the loss of information from the original instances, such as comments and layout information, which are valuable for software comprehension and maintenance. This study explores the potential of Large Language Model (LLM)-based solutions in achieving grammar and instance co-evolution, with attention to their ability to preserve auxiliary information when directly processing textual instances. By applying two advanced language models, Claude-3.5 and GPT-4o, and conducting experiments across seven case languages, we evaluated the feasibility and limitations of this approach. Our results indicate a good ability of the considered LLMs for migrating textual instances in small-scale cases with limited instance size, which are representative of a subset of cases encountered in practice. In addition, we observe significant challenges with the scalability of LLM-based solutions to larger instances, leading to insights that are useful for informing future research.
- Abstract(参考訳): ソフトウェア言語は、新機能の追加など、様々な理由で時間をかけて進化します。
言語の文法定義が進化すると、もともと文法に準拠したテキストインスタンスは時代遅れになる。
モデル駆動エンジニアリングのコンテキストにおけるDSLには、進化するメタモデルとモデルを共進化させるテクニックがたくさんあります。
しかし、これらのテクニックは、テキストの構文でDSLをサポートするように設計されていない -- テキストの言語定義に適用することで、コメントやレイアウト情報といった、ソフトウェアの理解とメンテナンスに価値のある、元のインスタンスからの情報を失う可能性がある。
本研究は,テキストインスタンスを直接処理する際の補助情報を保存する能力に着目し,文法とインスタンス共進化を実現するためのLarge Language Model (LLM) ベースのソリューションの可能性を検討する。
Claude-3.5 と GPT-4o の2つの先進言語モデルを適用し、7つのケース言語で実験を行い、本手法の有効性と限界を評価した。
この結果から,小規模の事例において,実際に遭遇した事例のサブセットを代表してテキストインスタンスを移行する上で,LLMが有効であることが示唆された。
さらに、LLMベースのソリューションを大規模インスタンスに拡張する上での重要な課題を観察し、将来の研究を知らせる上で有用な洞察をもたらす。
関連論文リスト
- Leveraging LLMs to support co-evolution between definitions and instances of textual DSLs: A Systematic Evaluation [6.964708557733698]
本研究は,文法とテキストDSLの共進化における大規模言語モデルの可能性について,体系的に評価する。
その結果,小規模症例では高い性能を示したが,規模によって性能が低下した。
論文 参考訳(メタデータ) (2026-02-12T13:01:01Z) - Scaffolded Language Models with Language Supervision for Mixed-Autonomy: A Survey [52.00674453604779]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - From Babbling to Fluency: Evaluating the Evolution of Language Models in Terms of Human Language Acquisition [6.617999710257379]
本稿では,LMの能力を評価するための3段階のフレームワークを提案する。
言語研究の手法を用いて, LMの生成能力を評価する。
論文 参考訳(メタデータ) (2024-10-17T06:31:49Z) - Boosting the Capabilities of Compact Models in Low-Data Contexts with Large Language Models and Retrieval-Augmented Generation [2.9921619703037274]
本稿では,形態素解析の言語タスクにおいて,より小さなモデルの出力を補正するために,大言語モデル(LLM)を基盤とした検索拡張生成(RAG)フレームワークを提案する。
データ不足や訓練可能なパラメータの不足を補うために,言語情報を活用するとともに,LLMを通して解釈・蒸留された記述文法からの入力を許容する。
コンパクトなRAG支援モデルがデータスカース設定に極めて有効であることを示し、このタスクとターゲット言語に対する新しい最先端技術を実現する。
論文 参考訳(メタデータ) (2024-10-01T04:20:14Z) - Shortcomings of LLMs for Low-Resource Translation: Retrieval and Understanding are Both the Problem [4.830018386227]
本研究では,機械翻訳パイプラインの自動化の一環として,事前学習された大言語モデル(LLM)が低リソース言語から高リソース言語への翻訳を指示する際の文脈内学習能力について検討する。
我々は南ケチュアをスペイン語に翻訳する一連の実験を行い、デジタル化された教育材料と平行コーパスの制約されたデータベースから得られた様々な種類の文脈の情報量について検討する。
論文 参考訳(メタデータ) (2024-06-21T20:02:22Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [51.8203871494146]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。