論文の概要: Detecting Semantic Alignments between Textual Specifications and Domain Models
- arxiv url: http://arxiv.org/abs/2603.06037v1
- Date: Fri, 06 Mar 2026 08:46:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.391183
- Title: Detecting Semantic Alignments between Textual Specifications and Domain Models
- Title(参考訳): テキスト仕様とドメインモデル間の意味的アライメントの検出
- Authors: Shwetali Shimangaud, Lola Burgueño, Rijul Saini, Jörg Kienzle,
- Abstract要約: 本稿では,部分的ドメインモデルとテキスト仕様との整合性を決定する手法を提案する。
我々のアルゴリズムは、各モデル要素を整列(正解)、不整列(誤誤)、未分類(不十分な証拠)のいずれかに分類する。
- 参考スコア(独自算出の注目度): 1.5866079116942815
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Context: Having domain models derived from textual specifications has proven to be very useful in the early phases of software engineering. However, creating correct domain models and establishing clear links with the textual specification is a challenging task, especially for novice modelers. Objectives: We propose an approach for determining the alignment between a partial domain model and a textual specification. Methods: To this aim, we use Natural Language Processing techniques to pre-process the text, generate an artificial natural language specification for each model element, and then use an LLM to compare the generated description with matched sentences from the original specification. Ultimately, our algorithm classifies each model element as either aligned (i.e., correct), misaligned (i.e., incorrect), or unclassified (i.e., insufficient evidence). Furthermore, it outputs the related sentences from the textual specification that provide the evidence for the determined class. Results: We have evaluated our approach on a set of examples from the literature containing diverse domains, each consisting of a textual specification and a reference domain model, as well as on models containing modeling errors that were systematically derived from the correct models through mutation. Our results show that we are able to identify alignments and misalignments with a precision close to 1 and a recall of approximately 78%, with execution times ranging from 18 seconds to 1 minute per model element. Conclusion: Since our algorithm almost never classifies model elements incorrectly, and is able to classify over 3/4 of the model elements, it could be integrated into a modeling tool to provide positive feedback or generate warnings, or employed for offline validation and quality assessment.
- Abstract(参考訳): コンテキスト: テキスト仕様から派生したドメインモデルを持つことは、ソフトウェア工学の初期段階において非常に有用であることが証明されています。
しかし、正しいドメインモデルを作成し、テキスト仕様との明確なリンクを確立することは、特に初心者のモデラーにとって難しい課題である。
目的: 部分的ドメインモデルとテキスト仕様の整合性を決定するアプローチを提案する。
方法: この目的のために,我々は自然言語処理技術を用いてテキストを前処理し,各モデル要素の人工自然言語仕様を生成し,LLMを用いて生成した記述と一致した文との比較を行う。
最終的に、我々のアルゴリズムは各モデル要素を整列(正解)、不整列(誤整)、未分類(不十分な証拠)のいずれかに分類する。
さらに、決定されたクラスの証拠を提供するテキスト仕様から関連文を出力する。
結果: 本研究は, テキスト仕様と参照ドメインモデルから構成される多種多様なドメインを含む文献と, 変異による正しいモデルから体系的に導出されたモデリングエラーを含むモデルから, 提案手法を検証した。
以上の結果から,モデル要素あたり18秒から1分程度の実行時間で,精度が1に近いアライメントとアライメントを約78%のリコールで識別できることが示唆された。
結論: 私たちのアルゴリズムはモデル要素をほとんど正しく分類せず、モデル要素の3/4以上を分類できるので、肯定的なフィードバックを提供したり、警告を発生させたり、オフラインの検証や品質評価に使用されるようなモデリングツールに統合することができます。
関連論文リスト
- Tuning-Free Personalized Alignment via Trial-Error-Explain In-Context Learning [74.56097953187994]
本稿では,テキスト生成タスクのための言語モデルをパーソナライズするチューニング不要な手法であるTrial-Error-Explain In-Context Learning(TICL)を提案する。
TICLは、試行錯誤説明プロセスを通じて、文脈内学習プロンプトを反復的に拡張し、モデル生成陰性サンプルと説明を追加する。
TICLは従来の最先端技術に対して最大91.5%を達成し、パーソナライズされたアライメントタスクのための競争的なチューニング不要のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-02-13T05:20:21Z) - Extract Free Dense Misalignment from CLIP [7.0247398611254175]
この研究はCLIP4DMと呼ばれる新しいアプローチを提案する。
我々は、個々のテキストトークンの負の勾配を誤適応を示すために、勾配に基づく属性計算法を改良する。
提案手法は,ゼロショットモデル間の最先端性能と微調整モデルとの競合性能を示す。
論文 参考訳(メタデータ) (2024-12-24T12:51:05Z) - Detection and Measurement of Syntactic Templates in Generated Text [58.111650675717414]
モデルにおける一般的な反復を特徴付けるための構文的特徴の解析を行う。
モデルでは、下流のタスクにおいて、人間の参照テキストよりも高いレートでテンプレートテキストを生成する傾向にある。
論文 参考訳(メタデータ) (2024-06-28T19:34:23Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - Zero-Shot Text Classification via Self-Supervised Tuning [46.9902502503747]
ゼロショットテキスト分類タスクを解決するための自己教師付き学習に基づく新しいパラダイムを提案する。
自己教師付きチューニングという,ラベルのないデータで言語モデルをチューニングする。
我々のモデルは10タスク中7タスクで最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-19T05:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。