論文の概要: Supporting Meta-model-based Language Evolution and Rapid Prototyping
with Automated Grammar Optimization
- arxiv url: http://arxiv.org/abs/2401.17351v1
- Date: Tue, 30 Jan 2024 18:03:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 16:39:13.853134
- Title: Supporting Meta-model-based Language Evolution and Rapid Prototyping
with Automated Grammar Optimization
- Title(参考訳): メタモデルに基づく言語進化と自動文法最適化による高速プロトタイピング
- Authors: Weixing Zhang, J\"org Holtmann, Daniel Str\"uber, Regina Hebig,
Jan-Philipp Stegh\"ofer
- Abstract要約: 本稿ではメタモデルに基づく言語進化の文脈で生成された文法を最適化するアプローチであるGrammarrを提案する。
G文法最適化規則は, 生成文法と既存文法の比較から抽出された。
- 参考スコア(独自算出の注目度): 0.7812210699650152
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In model-driven engineering, developing a textual domain-specific language
(DSL) involves constructing a meta-model, which defines an underlying abstract
syntax, and a grammar, which defines the concrete syntax for the DSL. Language
workbenches such as Xtext allow the grammar to be automatically generated from
the meta-model, yet the generated grammar usually needs to be manually
optimized to improve its usability. When the meta-model changes during rapid
prototyping or language evolution, it can become necessary to re-generate the
grammar and optimize it again, causing repeated effort and potential for
errors. In this paper, we present GrammarOptimizer, an approach for optimizing
generated grammars in the context of meta-model-based language evolution. To
reduce the effort for language engineers during rapid prototyping and language
evolution, it offers a catalog of configurable grammar optimization rules. Once
configured, these rules can be automatically applied and re-applied after
future evolution steps, greatly reducing redundant manual effort. In addition,
some of the supported optimizations can globally change the style of concrete
syntax elements, further significantly reducing the effort for manual
optimizations. The grammar optimization rules were extracted from a comparison
of generated and existing, expert-created grammars, based on seven available
DSLs.
- Abstract(参考訳): モデル駆動エンジニアリングでは、テキストドメイン固有言語(DSL)の開発は、基礎となる抽象構文を定義するメタモデルと、DSLの具体的な構文を定義する文法の構築を伴う。
xtextのような言語ワークベンチでは、メタモデルから文法を自動的に生成できますが、生成された文法は通常、ユーザビリティを向上させるために手作業で最適化する必要があります。
迅速なプロトタイピングや言語の進化中にメタモデルが変化すると、文法を再生成して再度最適化し、繰り返しの努力とエラーの可能性を引き起こす必要がある。
本稿では,メタモデルに基づく言語進化の文脈で生成した文法を最適化する手法である grammaroptimizer を提案する。
高速なプロトタイピングと言語進化における言語エンジニアの労力を削減するため、設定可能な文法最適化ルールのカタログを提供する。
設定が完了すると、これらのルールは将来の進化ステップ後に自動的に適用および再適用され、冗長な手作業が大幅に削減される。
さらに、サポートされている最適化のいくつかは、具体的な構文要素のスタイルを世界規模で変更することができる。
文法最適化ルールは、7つの利用可能なdslに基づいて、生成された既存の専門家による文法の比較から抽出された。
関連論文リスト
- Using Grammar Masking to Ensure Syntactic Validity in LLM-based Modeling Tasks [0.996023506058745]
文法マスキング(Grammar masking)は、与えられた文脈自由文法に対して構文的に正しいモデルを生成するための大きな言語モデルを導くために用いられる。
文法マスキングは,複数の言語モデルのモデリング能力を劇的に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-07-08T17:19:59Z) - Towards Automated Support for the Co-Evolution of Meta-Models and
Grammars [0.0]
我々はメタモデルに基づくモデル駆動工学(MDE)アプローチに焦点をあて、テキスト言語を開発する。
本稿ではメタモデルと文法の共進化を支援する手法を提案する。
論文 参考訳(メタデータ) (2023-12-10T23:34:07Z) - A Rapid Prototyping Language Workbench for Textual DSLs based on Xtext:
Vision and Progress [0.8534278963977691]
本稿では,Grammarrの文法最適化ルールを統合し,高速なプロトタイピングと言語の進化をサポートする言語ワークベンチの構想を示す。
最適化ルールの視覚的構成と文法最適化の効果のリアルタイムプレビューを提供する。
本稿では,この言語ワークベンチの可能性と応用,および既存の言語ワークベンチのギャップを埋める方法について論じる。
論文 参考訳(メタデータ) (2023-09-08T14:17:00Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - nl2spec: Interactively Translating Unstructured Natural Language to
Temporal Logics with Large Language Models [3.1143846686797314]
大規模言語モデル(LLM)を適用するためのフレームワークであるnl2specは、構造化されていない自然言語から正式な仕様を導出する。
本稿では,自然言語におけるシステム要求のあいまいさを検知し,解決する新たな手法を提案する。
ユーザは、これらのサブ翻訳を反復的に追加、削除、編集して、不正なフォーマル化を修正する。
論文 参考訳(メタデータ) (2023-03-08T20:08:53Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - Improving Text Auto-Completion with Next Phrase Prediction [9.385387026783103]
我々の戦略は、Next Phrase Prediction (NPP)と呼ばれる新しい自己指導型トレーニング目標を含む。
予備実験により,メールや学術書記ドメインの自動補完において,本手法がベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2021-09-15T04:26:15Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - Explicitly Modeling Syntax in Language Models with Incremental Parsing
and a Dynamic Oracle [88.65264818967489]
我々は新しい構文認識型言語モデル、Syntactic Ordered Memory (SOM)を提案する。
モデルは、構造をインクリメンタルにモデル化し、標準言語モデルの条件付き確率設定を維持する。
実験により、SOMは言語モデリング、インクリメンタル解析、構文一般化テストにおいて強力な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-21T17:39:15Z) - Automatic Extraction of Rules Governing Morphological Agreement [103.78033184221373]
原文から第一パス文法仕様を抽出する自動フレームワークを開発する。
我々は、世界の多くの言語の文法の中核にあるモルフォシンタクティックな現象である合意を記述する規則の抽出に焦点をあてる。
我々のフレームワークはUniversal Dependenciesプロジェクトに含まれるすべての言語に適用され、有望な結果が得られます。
論文 参考訳(メタデータ) (2020-10-02T18:31:45Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。