論文の概要: UVL Sentinel: a tool for parsing and syntactic correction of UVL datasets
- arxiv url: http://arxiv.org/abs/2403.18482v1
- Date: Wed, 27 Mar 2024 11:56:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 17:08:03.969312
- Title: UVL Sentinel: a tool for parsing and syntactic correction of UVL datasets
- Title(参考訳): UVL Sentinel:UVLデータセットの解析と構文修正のためのツール
- Authors: David Romero-Organvidez, Jose A. Galindo, David Benavides,
- Abstract要約: 機能モデルは、ソフトウェア製品ラインの多様性を表すデファクトスタンダードになっています。
UVL(Universal Variability Language)は、それらの機能、依存関係、制約を表現する言語である。
UVL SentinelはUVLフォーマットで機能モデルのデータセットを分析し、エラー解析レポートを生成し、それらのエラーを記述し、最終的には最も一般的なソリューションを適用する構文処理を行う。
- 参考スコア(独自算出の注目度): 1.1821195547818244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature models have become a de facto standard for representing variability in software product lines. UVL (Universal Variability Language) is a language which expresses the features, dependencies, and constraints between them. This language is written in plain text and follows a syntactic structure that needs to be processed by a parser. This parser is software with specific syntactic rules that the language must comply with to be processed correctly. Researchers have datasets with numerous feature models. The language description form of these feature models is tied to a version of the parser language. When the parser is updated to support new features or correct previous ones, these feature models are often no longer compatible, generating incompatibilities and inconsistency within the dataset. In this paper, we present UVL Sentinel. This tool analyzes a dataset of feature models in UVL format, generating error analysis reports, describing those errors and, eventually, a syntactic processing that applies the most common solutions. This tool can detect the incompatibilities of the feature models of a dataset when the parser is updated and tries to correct the most common syntactic errors, facilitating the management of the dataset and the adaptation of their models to the new version of the parser. Our tool was evaluated using a dataset of 1,479 UVL models from different sources and helped semi-automatically fix 185 warnings and syntax errors.
- Abstract(参考訳): 機能モデルは、ソフトウェア製品ラインの多様性を表すデファクトスタンダードになっています。
UVL(Universal Variability Language)は、それらの機能、依存関係、制約を表現する言語である。
この言語はプレーンテキストで書かれており、構文構造に従っており、パーサーで処理する必要がある。
このパーサーは、言語が正しく処理するために従わなければならない特定の構文規則を持つソフトウェアである。
研究者は多数の特徴モデルを持つデータセットを持っている。
これらの特徴モデルの言語記述形式はパーサー言語のバージョンと結びついている。
新たな機能をサポートするようにパーサが更新されたり、以前の機能を修正すると、これらの機能モデルは互換性がなくなり、データセット内で不整合と不整合が発生します。
本稿ではUVLセンチネルについて述べる。
このツールはUVLフォーマットで機能モデルのデータセットを分析し、エラー解析レポートを生成し、それらのエラーを記述し、最終的には最も一般的なソリューションを適用する構文処理を行う。
このツールは、パーサが更新されたときにデータセットの機能モデルの非互換性を検出し、最も一般的な構文エラーを修正し、データセットの管理とパーサの新バージョンへのモデルの適応を容易にする。
提案ツールは,異なるソースからの1,479UVLモデルのデータセットを用いて評価し,半自動で185の警告と構文エラーを修正した。
関連論文リスト
- Strategies for Improving NL-to-FOL Translation with LLMs: Data Generation, Incremental Fine-Tuning, and Verification [9.36179617282876]
GPT-4o を用いて ProofWriter データセットの高品質な FOL アノテーション付きサブセットを作成する。
本稿では,LLaMA-2およびMistralモデル上でProofFOLを用いたProofWriterおよびProntoQAデータセットの最先端性能を示す。
論文 参考訳(メタデータ) (2024-09-24T21:24:07Z) - Detecting Errors through Ensembling Prompts (DEEP): An End-to-End LLM Framework for Detecting Factual Errors [11.07539342949602]
本稿では,テキスト要約における事実誤り検出のためのエンドツーエンドフレームワークを提案する。
我々のフレームワークは、様々なLCMプロンプトを使用して、事実の矛盾を識別する。
我々は、アンサンブルされたモデルを校正し、テキストが実際に一貫した、あるいは幻覚のない、経験的に正確な確率を生成する。
論文 参考訳(メタデータ) (2024-06-18T18:59:37Z) - SUT: Active Defects Probing for Transcompiler Models [24.01532199512389]
我々は、プログラミング言語翻訳のための新しいメトリクスを導入し、これらのメトリクスは基本的な構文エラーに対処する。
実験によると、ChatGPTのような強力なモデルでさえ、これらの基本的な単体テストで間違いを犯している。
論文 参考訳(メタデータ) (2023-10-22T07:16:02Z) - Towards Fine-Grained Information: Identifying the Type and Location of
Translation Errors [80.22825549235556]
既存のアプローチでは、エラーの位置と型を同期的に考慮することはできない。
我々はtextbf の追加と textbfomission エラーを予測するために FG-TED モデルを構築した。
実験により,本モデルではエラータイプと位置の同時同定が可能であり,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-02-17T16:20:33Z) - BenchCLAMP: A Benchmark for Evaluating Language Models on Syntactic and
Semantic Parsing [55.058258437125524]
本稿では,制約付きLanguage Model Parsingを評価するベンチマークであるBenchCLAMPを紹介する。
APIを通じてのみ利用可能な2つのGPT-3変種を含む8つの言語モデルをベンチマークする。
実験により,エンコーダ-デコーダ事前学習言語モデルでは,モデル出力が有効であると制約された場合に,構文解析や意味解析の最先端手法を超えることができることがわかった。
論文 参考訳(メタデータ) (2022-06-21T18:34:11Z) - ELEVATER: A Benchmark and Toolkit for Evaluating Language-Augmented
Visual Models [102.63817106363597]
ELEVATERは、事前訓練された言語拡張ビジュアルモデルの比較と評価を行う最初のベンチマークである。
20の画像分類データセットと35のオブジェクト検出データセットで構成され、それぞれが外部知識で拡張されている。
研究コミュニティ向けのツールキットと評価プラットフォームをリリースします。
論文 参考訳(メタデータ) (2022-04-19T10:23:42Z) - Zero-Shot Cross-lingual Semantic Parsing [56.95036511882921]
7つのテスト言語に対する並列データを持たないゼロショット問題として,言語間セマンティックパーシングについて検討した。
英文論理形式ペアデータのみを用いて解析知識を付加言語に転送するマルチタスクエンコーダデコーダモデルを提案する。
このシステムは、ゼロショット解析を潜時空間アライメント問題としてフレーム化し、事前訓練されたモデルを改善し、最小のクロスリンガル転送ペナルティで論理形式を生成することができる。
論文 参考訳(メタデータ) (2021-04-15T16:08:43Z) - NL-EDIT: Correcting semantic parse errors through natural language
interaction [28.333860779302306]
インタラクションコンテキストにおける自然言語フィードバックの解釈モデルであるNL-EDITを提案する。
NL-EDITは1回補正するだけで、既存のテキスト対アリーの精度を最大20%向上できることを示す。
論文 参考訳(メタデータ) (2021-03-26T15:45:46Z) - Explicitly Modeling Syntax in Language Models with Incremental Parsing
and a Dynamic Oracle [88.65264818967489]
我々は新しい構文認識型言語モデル、Syntactic Ordered Memory (SOM)を提案する。
モデルは、構造をインクリメンタルにモデル化し、標準言語モデルの条件付き確率設定を維持する。
実験により、SOMは言語モデリング、インクリメンタル解析、構文一般化テストにおいて強力な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-21T17:39:15Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。