論文の概要: Automated Smell Detection and Recommendation in Natural Language
Requirements
- arxiv url: http://arxiv.org/abs/2305.07097v2
- Date: Sat, 25 Nov 2023 08:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 16:18:23.315312
- Title: Automated Smell Detection and Recommendation in Natural Language
Requirements
- Title(参考訳): 自然言語要件における匂いの自動検出と推薦
- Authors: Alvaro Veizaga, Seung Yeob Shin, Lionel C. Briand
- Abstract要約: Paskaは、任意の自然言語(NL)要求を入力するツールである。
要求の匂いとして品質問題を自動的に検出し、品質を改善するための推奨を提供する。
- 参考スコア(独自算出の注目度): 8.672583050502496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Requirement specifications are typically written in natural language (NL) due
to its usability across multiple domains and understandability by all
stakeholders. However, unstructured NL is prone to quality problems (e.g.,
ambiguity) when writing requirements, which can result in project failures. To
address this issue, we present a tool, named Paska, that takes as input any NL
requirements, automatically detects quality problems as smells in the
requirements, and offers recommendations to improve their quality. Our approach
relies on natural language processing (NLP) techniques and a state-of-the-art
controlled natural language (CNL) for requirements (Rimay), to detect smells
and suggest recommendations using patterns defined in Rimay to improve
requirement quality. We evaluated Paska through an industrial case study in the
financial domain involving 13 systems and 2725 annotated requirements. The
results show that our tool is accurate in detecting smells (89% precision and
recall) and suggesting appropriate Rimay pattern recommendations (96% precision
and 94% recall).
- Abstract(参考訳): 要求仕様は一般的に自然言語(NL)で記述されるが、それは複数のドメインにまたがるユーザビリティと、すべての利害関係者による理解性のためである。
しかし、非構造化nlは要求を書く際に品質の問題(例えばあいまいさ)を起こしやすいため、プロジェクトの失敗につながる可能性がある。
この問題に対処するため、我々はPaskaというツールを提案し、NL要求を入力として、要求の匂いとして品質問題を自動的に検出し、品質を改善するためのレコメンデーションを提供する。
提案手法は,要求(Rimay)に対する自然言語処理(NLP)技術と最先端制御自然言語(CNL)に依存し,匂いを検出し,要求品質を向上させるためにRimayで定義されたパターンを用いて推奨する。
13のシステムと2725のアノテート要件を含む金融分野での産業ケーススタディを通じてPaskaを評価した。
その結果,このツールは嗅覚検出 (89% の精度とリコール) と適切なリメイパターン推薦 (96% の精度と 94% のリコール) に有効であることがわかった。
関連論文リスト
- Can a Multichoice Dataset be Repurposed for Extractive Question Answering? [52.28197971066953]
我々は,Multiple-choice Question answering (MCQA)のために設計されたBandarkar et al.(Bandarkar et al., 2023)を再利用した。
本稿では,英語と現代標準アラビア語(MSA)のためのガイドラインと並列EQAデータセットを提案する。
私たちの目標は、ベレベレにおける120以上の言語変異に対して、他者が私たちのアプローチを適応できるようにすることです。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - Requirements Satisfiability with In-Context Learning [1.747623282473278]
インコンテキスト学習(ICL)と呼ばれる推論時にタスクを学習できる言語モデルは、自然言語タスクの公約が増加することを示している。
本稿では,システム仕様と関連する知識によって要求がどのように満たされるかを記述した満足度議論の設計評価にICLを適用した。
このアプローチは、拡張生成、プロンプトチューニング、チェーン・オブ・シークレットプロンプトを含む3つのプロンプトデザインパターンに基づいて構築される。
論文 参考訳(メタデータ) (2024-04-19T01:58:24Z) - Natural Language Requirements Testability Measurement Based on Requirement Smells [1.1663475941322277]
テスト可能な要件は、障害の防止、メンテナンスコストの削減、受け入れテストの実行を容易にする。
要求の匂いに基づいて、要求の検証可能性を測定するための自動的なアプローチは提案されていない。
本稿では,9つの要求の匂いの広範囲なセットに基づいて,自然言語の検証可能性の評価とランク付けを行う数学的モデルを提案する。
論文 参考訳(メタデータ) (2024-03-26T08:19:29Z) - Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - Chain-of-Note: Enhancing Robustness in Retrieval-Augmented Language Models [54.55088169443828]
CoN(Chain-of-Noting)は、ノイズや無関係な文書、未知のシナリオの処理において、ALMの堅牢性を改善することを目的とした、新しいアプローチである。
CoNは、完全にノイズの多い検索された文書が与えられるEMスコアの+7.9と、トレーニング済みの知識範囲外にあるリアルタイム質問に対する拒絶率+10.5の平均的な改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T18:54:53Z) - CiRA: An Open-Source Python Package for Automated Generation of Test
Case Descriptions from Natural Language Requirements [1.3082545468017672]
本稿では,条件付き自然言語要求を自動的に処理するCiRA(Causality In Requirements Artifacts)イニシアチブのツールを提案する。
我々は,このツールを,ドイツ・コロナ・ワーン・アプリ(Corona-Warn-App)の要件仕様から,61の要件の公開データセット上で評価する。
論文 参考訳(メタデータ) (2023-10-12T11:30:59Z) - Requirements Quality Assurance in Industry: Why, What and How? [3.6142643912711794]
本稿では,人間の視点から品質面を検証する認知負荷を特徴付ける要求品質保証複雑性の分類法を提案する。
この分類が実現し、検証されると、自動要求品質保証の意思決定フレームワークの基盤として機能する。
論文 参考訳(メタデータ) (2023-08-24T14:31:52Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - Measuring Uncertainty in Translation Quality Evaluation (TQE) [62.997667081978825]
本研究は,翻訳テキストのサンプルサイズに応じて,信頼区間を精度良く推定する動機づけた研究を行う。
我々はベルヌーイ統計分布モデリング (BSDM) とモンテカルロサンプリング分析 (MCSA) の手法を適用した。
論文 参考訳(メタデータ) (2021-11-15T12:09:08Z) - TextFlint: Unified Multilingual Robustness Evaluation Toolkit for
Natural Language Processing [73.16475763422446]
NLPタスク(TextFlint)のための多言語ロバスト性評価プラットフォームを提案する。
普遍的なテキスト変換、タスク固有の変換、敵攻撃、サブポピュレーション、およびそれらの組み合わせを取り入れ、包括的な堅牢性分析を提供する。
TextFlintは、モデルの堅牢性の欠点に対処するために、完全な分析レポートとターゲットとした拡張データを生成します。
論文 参考訳(メタデータ) (2021-03-21T17:20:38Z) - On Systematically Building a Controlled Natural Language for Functional
Requirements [2.9676973500772887]
自然言語(NL)は、ソフトウェア要件仕様(SRS)において広く普及している。
その人気と広く使われているにもかかわらず、NLはあいまいさ、曖昧さ、不完全さといった品質の問題に高い傾向にある。
要求文書の品質問題を防止する手段として,制御自然言語(CNL)が提案されている。
論文 参考訳(メタデータ) (2020-05-04T09:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。