論文の概要: A Rapid Prototyping Language Workbench for Textual DSLs based on Xtext:
Vision and Progress
- arxiv url: http://arxiv.org/abs/2309.04347v1
- Date: Fri, 8 Sep 2023 14:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 08:24:01.133896
- Title: A Rapid Prototyping Language Workbench for Textual DSLs based on Xtext:
Vision and Progress
- Title(参考訳): Xtextに基づくテキストDSLのための高速プロトタイピング言語ワークベンチ:ビジョンと進歩
- Authors: Weixing Zhang, Jan-Philipp Stegh\"ofer, Regina Hebig, Daniel Str\"uber
- Abstract要約: 本稿では,Grammarrの文法最適化ルールを統合し,高速なプロトタイピングと言語の進化をサポートする言語ワークベンチの構想を示す。
最適化ルールの視覚的構成と文法最適化の効果のリアルタイムプレビューを提供する。
本稿では,この言語ワークベンチの可能性と応用,および既存の言語ワークベンチのギャップを埋める方法について論じる。
- 参考スコア(独自算出の注目度): 0.8534278963977691
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Metamodel-based DSL development in language workbenches like Xtext allows
language engineers to focus more on metamodels and domain concepts rather than
grammar details. However, the grammar generated from metamodels often requires
manual modification, which can be tedious and time-consuming. Especially when
it comes to rapid prototyping and language evolution, the grammar will be
generated repeatedly, this means that language engineers need to repeat such
manual modification back and forth. Previous work introduced GrammarOptimizer,
which automatically improves the generated grammar using optimization rules.
However, the optimization rules need to be configured manually, which lacks
user-friendliness and convenience. In this paper, we present our vision for and
current progress towards a language workbench that integrates
GrammarOptimizer's grammar optimization rules to support rapid prototyping and
evolution of metamodel-based languages. It provides a visual configuration of
optimization rules and a real-time preview of the effects of grammar
optimization to address the limitations of GrammarOptimizer. Furthermore, it
supports the inference of a grammar based on examples from model instances and
offers a selection of language styles. These features aim to enhance the
automation level of metamodel-based DSL development with Xtext and assist
language engineers in iterative development and rapid prototyping. Our paper
discusses the potential and applications of this language workbench, as well as
how it fills the gaps in existing language workbenches.
- Abstract(参考訳): メタモデルベースのdsl開発 xtextのような言語ワークベンチでは、言語エンジニアは文法の詳細よりもメタモデルとドメイン概念に集中できます。
しかし、メタモデルから生成される文法は、しばしば手作業による修正を必要とします。
特に、迅速なプロトタイピングと言語の進化に関しては、文法が繰り返し生成されます。
前回の作業では、最適化ルールを使用して生成された文法を自動的に改善するグラマーオプティマイザが導入された。
しかし、最適化ルールは手動で設定する必要があるため、ユーザフレンドリーさや利便性が欠如している。
本稿では,GrammarOptimizerの文法最適化ルールを統合し,メタモデルに基づく言語の迅速なプロトタイピングと進化をサポートする言語ワークベンチに向けたビジョンと現状について述べる。
最適化ルールの視覚的な構成と文法最適化の効果のリアルタイムプレビューを提供し、文法最適化の制限に対処する。
さらに、モデルインスタンスの例に基づいた文法の推論をサポートし、言語スタイルの選択も提供する。
これらの機能は、XtextでメタモデルベースのDSL開発を自動化し、反復的な開発と迅速なプロトタイピングで言語エンジニアを支援することを目的としています。
本稿では,この言語ワークベンチの可能性と応用,および既存の言語ワークベンチのギャップを埋める方法について論じる。
関連論文リスト
- CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Supporting Meta-model-based Language Evolution and Rapid Prototyping
with Automated Grammar Optimization [0.7812210699650152]
本稿ではメタモデルに基づく言語進化の文脈で生成された文法を最適化するアプローチであるGrammarrを提案する。
G文法最適化規則は, 生成文法と既存文法の比較から抽出された。
論文 参考訳(メタデータ) (2024-01-30T18:03:45Z) - Accelerating Multilingual Language Model for Excessively Tokenized Languages [3.5570874721859016]
大型言語モデル(LLM)のトークン化子は、文字やUnicodeレベルのトークンを非ローマ語アルファベットの言語で断片化することが多い。
このような言語でテキスト生成を高速化する,シンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-19T12:26:57Z) - Towards Automated Support for the Co-Evolution of Meta-Models and
Grammars [0.0]
我々はメタモデルに基づくモデル駆動工学(MDE)アプローチに焦点をあて、テキスト言語を開発する。
本稿ではメタモデルと文法の共進化を支援する手法を提案する。
論文 参考訳(メタデータ) (2023-12-10T23:34:07Z) - Retroformer: Retrospective Large Language Agents with Policy Gradient Optimization [103.70896967077294]
本稿では,レトロスペクティブモデルを学習することで,大規模言語エージェントを強化するための原則的枠組みを提案する。
提案するエージェントアーキテクチャは,事前学習した言語モデルを微調整するために,複数の環境やタスクにまたがる報酬から学習する。
様々なタスクの実験結果から、言語エージェントは時間とともに改善することが示された。
論文 参考訳(メタデータ) (2023-08-04T06:14:23Z) - Bootstrapping Vision-Language Learning with Decoupled Language
Pre-training [46.570154746311935]
本稿では,資源集約型視覚言語事前学習のための凍結型大規模言語モデル (LLM) の最適化を目的とした新しい手法を提案する。
われわれのアプローチは、言語コンポーネントに集中して、視覚的特徴と整合する最適なプロンプトを具体的に特定することによって、多様化している。
我々のフレームワークは、ビデオ学習タスクにおけるその成功例によって検証されるように、アーキテクチャ設計の観点からは、モダリティ非依存かつ柔軟である。
論文 参考訳(メタデータ) (2023-07-13T21:08:15Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Vision-Language Pre-Training for Boosting Scene Text Detectors [57.08046351495244]
シーンテキスト検出に視覚言語を用いた共同学習を特に応用する。
本稿では,視覚言語による事前学習を通して,文脈化された共同表現を学習することを提案する。
事前訓練されたモデルは、よりリッチなセマンティクスでより情報的な表現を生成することができる。
論文 参考訳(メタデータ) (2022-04-29T03:53:54Z) - Improving Text Auto-Completion with Next Phrase Prediction [9.385387026783103]
我々の戦略は、Next Phrase Prediction (NPP)と呼ばれる新しい自己指導型トレーニング目標を含む。
予備実験により,メールや学術書記ドメインの自動補完において,本手法がベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2021-09-15T04:26:15Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。