論文の概要: Automated Smell Detection and Recommendation in Natural Language
Requirements
- arxiv url: http://arxiv.org/abs/2305.07097v1
- Date: Thu, 11 May 2023 19:01:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:54:04.080366
- Title: Automated Smell Detection and Recommendation in Natural Language
Requirements
- Title(参考訳): 自然言語要件における匂いの自動検出と推薦
- Authors: Alvaro Veizaga, Seung Yeob Shin, Lionel C. Briand
- Abstract要約: Paskaは、NL要求の匂いとして品質問題を自動的に検出するツールである。
Rimayは、要求に対する最先端の自然言語(CNL)である。
- 参考スコア(独自算出の注目度): 8.672583050502496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Requirement specifications are typically written in natural language (NL) due
to its usability across multiple domains and understandability by all
stakeholders. However, unstructured NL is prone to quality problems (e.g.,
ambiguity) in writing requirements, which can result in project failures. To
address this issue, we present a tool, named Paska, that automatically detects
quality problems as smells in NL requirements and offers recommendations to
improve their quality. Our approach relies on natural language processing (NLP)
techniques and, most importantly, a state-of-the-art controlled natural
language (CNL) for requirements (Rimay), to detect smells and suggest
recommendations using patterns defined in Rimay to improve requirement quality.
We evaluated Paska through an industrial case study in the financial domain
involving 13 systems and 2725 annotated requirements. The results show that our
tool is accurate in detecting smells (precision of 89% and recall of 89%) and
suggesting appropriate Rimay pattern recommendations (precision of 96% and
recall of 94%).
- Abstract(参考訳): 要求仕様は一般的に自然言語(NL)で記述されるが、それは複数のドメインにまたがるユーザビリティと、すべての利害関係者による理解性のためである。
しかし、構造化されていないNLは、要求を書く際の品質問題(例えば曖昧さ)が原因でプロジェクトの失敗につながる。
この問題に対処するために,我々は,nl要件の臭いとして品質問題を自動的に検出し,品質を改善するためのレコメンデーションを提供するpaskaというツールを提案する。
我々のアプローチは、自然言語処理(NLP)技術と、最も重要なのは、要求(Rimay)に対する最先端の制御された自然言語(CNL)を使用して、臭いを検出し、要求品質を改善するためにRimayで定義されたパターンを使用して推奨する。
13のシステムと2725のアノテート要件を含む金融分野での産業ケーススタディを通じてPaskaを評価した。
その結果,嗅覚検出の精度(精度89%,リコール89%)と適切なリメイパターン推薦の精度(精度96%,リコール94%)が示唆された。
関連論文リスト
- Can a Multichoice Dataset be Repurposed for Extractive Question Answering? [52.28197971066953]
我々は,Multiple-choice Question answering (MCQA)のために設計されたBandarkar et al.(Bandarkar et al., 2023)を再利用した。
本稿では,英語と現代標準アラビア語(MSA)のためのガイドラインと並列EQAデータセットを提案する。
私たちの目標は、ベレベレにおける120以上の言語変異に対して、他者が私たちのアプローチを適応できるようにすることです。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - Requirements Satisfiability with In-Context Learning [1.747623282473278]
インコンテキスト学習(ICL)と呼ばれる推論時にタスクを学習できる言語モデルは、自然言語タスクの公約が増加することを示している。
本稿では,システム仕様と関連する知識によって要求がどのように満たされるかを記述した満足度議論の設計評価にICLを適用した。
このアプローチは、拡張生成、プロンプトチューニング、チェーン・オブ・シークレットプロンプトを含む3つのプロンプトデザインパターンに基づいて構築される。
論文 参考訳(メタデータ) (2024-04-19T01:58:24Z) - Natural Language Requirements Testability Measurement Based on Requirement Smells [1.1663475941322277]
テスト可能な要件は、障害の防止、メンテナンスコストの削減、受け入れテストの実行を容易にする。
要求の匂いに基づいて、要求の検証可能性を測定するための自動的なアプローチは提案されていない。
本稿では,9つの要求の匂いの広範囲なセットに基づいて,自然言語の検証可能性の評価とランク付けを行う数学的モデルを提案する。
論文 参考訳(メタデータ) (2024-03-26T08:19:29Z) - Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - Chain-of-Note: Enhancing Robustness in Retrieval-Augmented Language Models [54.55088169443828]
CoN(Chain-of-Noting)は、ノイズや無関係な文書、未知のシナリオの処理において、ALMの堅牢性を改善することを目的とした、新しいアプローチである。
CoNは、完全にノイズの多い検索された文書が与えられるEMスコアの+7.9と、トレーニング済みの知識範囲外にあるリアルタイム質問に対する拒絶率+10.5の平均的な改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T18:54:53Z) - CiRA: An Open-Source Python Package for Automated Generation of Test
Case Descriptions from Natural Language Requirements [1.3082545468017672]
本稿では,条件付き自然言語要求を自動的に処理するCiRA(Causality In Requirements Artifacts)イニシアチブのツールを提案する。
我々は,このツールを,ドイツ・コロナ・ワーン・アプリ(Corona-Warn-App)の要件仕様から,61の要件の公開データセット上で評価する。
論文 参考訳(メタデータ) (2023-10-12T11:30:59Z) - Requirements Quality Assurance in Industry: Why, What and How? [3.6142643912711794]
本稿では,人間の視点から品質面を検証する認知負荷を特徴付ける要求品質保証複雑性の分類法を提案する。
この分類が実現し、検証されると、自動要求品質保証の意思決定フレームワークの基盤として機能する。
論文 参考訳(メタデータ) (2023-08-24T14:31:52Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - Measuring Uncertainty in Translation Quality Evaluation (TQE) [62.997667081978825]
本研究は,翻訳テキストのサンプルサイズに応じて,信頼区間を精度良く推定する動機づけた研究を行う。
我々はベルヌーイ統計分布モデリング (BSDM) とモンテカルロサンプリング分析 (MCSA) の手法を適用した。
論文 参考訳(メタデータ) (2021-11-15T12:09:08Z) - TextFlint: Unified Multilingual Robustness Evaluation Toolkit for
Natural Language Processing [73.16475763422446]
NLPタスク(TextFlint)のための多言語ロバスト性評価プラットフォームを提案する。
普遍的なテキスト変換、タスク固有の変換、敵攻撃、サブポピュレーション、およびそれらの組み合わせを取り入れ、包括的な堅牢性分析を提供する。
TextFlintは、モデルの堅牢性の欠点に対処するために、完全な分析レポートとターゲットとした拡張データを生成します。
論文 参考訳(メタデータ) (2021-03-21T17:20:38Z) - On Systematically Building a Controlled Natural Language for Functional
Requirements [2.9676973500772887]
自然言語(NL)は、ソフトウェア要件仕様(SRS)において広く普及している。
その人気と広く使われているにもかかわらず、NLはあいまいさ、曖昧さ、不完全さといった品質の問題に高い傾向にある。
要求文書の品質問題を防止する手段として,制御自然言語(CNL)が提案されている。
論文 参考訳(メタデータ) (2020-05-04T09:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。