論文の概要: Un marco conceptual para la generación de requerimientos de software de calidad
- arxiv url: http://arxiv.org/abs/2504.10654v1
- Date: Mon, 14 Apr 2025 19:12:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:19.326265
- Title: Un marco conceptual para la generación de requerimientos de software de calidad
- Title(参考訳): ソフトウェア・ド・カリダードの概念的考察
- Authors: Mauro José Pacchiotti, Mariel Ale y Luciana Ballejos,
- Abstract要約: 自然言語処理タスクを強化するために,大規模言語モデル (LLM) が登場した。
この研究は、これらのモデルを使用して自然言語で書かれたソフトウェア要件の品質を改善することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Requirements expressed in natural language are an indispensable artifact in the software development process, as all stakeholders can understand them. However, their ambiguity poses a persistent challenge. To address this issue, organizations such as IEEE and INCOSE publish guidelines for writing requirements, offering rules that assist in this task. On the other hand, agile methodologies provide patterns and structures for expressing stakeholder needs in natural language, attempting to constrain the language to avoid ambiguity. Nevertheless, the knowledge gap among stakeholders regarding the requirements and the correct way to express them further complicates the specification task. In recent years, large language models (LLMs) have emerged to enhance natural language processing tasks. These are Deep learning-based architectures that emulate attention mechanisms like those of humans. This work aims to test the demonstrated power of LLMs in this domain. The objective is to use these models to improve the quality of software requirements written in natural language, assisting analysts in the requirements specification. The proposed framework, its architecture, key components, and their interactions are detailed. Furthermore, a conceptual test of the proposal is developed to assess its usefulness. Finally, the potential and limitations of the framework are discussed, along with future directions for its continued validation and refinement.
- Abstract(参考訳): 自然言語で表現される要件は、すべての利害関係者が理解できるように、ソフトウェア開発プロセスにおいて必須の成果物です。
しかし、あいまいさは永続的な課題である。
この問題に対処するため、IEEEやINCOSEといった組織は、要件を書くためのガイドラインを公開し、このタスクを支援するルールを提供している。
一方、アジャイルの方法論は、自然言語でステークホルダーのニーズを表現するためのパターンと構造を提供し、あいまいさを避けるために言語を制約しようとします。
それでも、要求とそれらを表現する正しい方法に関するステークホルダー間の知識ギャップは、仕様タスクをさらに複雑にします。
近年,自然言語処理タスクを強化するために,大規模言語モデル (LLM) が出現している。
これらは、人間のような注意機構をエミュレートするディープラーニングベースのアーキテクチャです。
本研究は,この領域におけるLLMの実証力をテストすることを目的としている。
目的は、これらのモデルを使用して自然言語で書かれたソフトウェア要件の品質を改善し、要求仕様のアナリストを支援することである。
提案されているフレームワーク、アーキテクチャ、キーコンポーネント、およびそれらの相互作用について詳述する。
さらに,提案手法の有効性を評価するために,提案手法の概念的試験を開発した。
最後に、フレームワークの可能性と限界と、その継続的な検証と改善の今後の方向性について論じる。
関連論文リスト
- IOLBENCH: Benchmarking LLMs on Linguistic Reasoning [8.20398036986024]
IOL(International Linguistics Olympiad)問題に基づく新しいベンチマークであるIOLBENCHを紹介する。
このデータセットは、文法、形態学、音韻学、意味論をテストする様々な問題を含んでいる。
最も先進的なモデルでさえ、言語的な複雑さの複雑さを扱うのに苦労している。
論文 参考訳(メタデータ) (2025-01-08T03:15:10Z) - Improving Large Language Model (LLM) fidelity through context-aware grounding: A systematic approach to reliability and veracity [0.0]
大規模言語モデル(LLM)は、自然言語処理(NLP)アプリケーションにおいて、ますます高度でユビキタスなものになりつつある。
本稿では,テクストモデルにおける文脈的接地のための新しい枠組みについて述べる。
本研究は, 医療, 法制度, 社会サービスなどのセンシティブな分野におけるLCMの展開に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-08-07T18:12:02Z) - A Review of Hybrid and Ensemble in Deep Learning for Natural Language Processing [0.5266869303483376]
レビューでは、各タスクを体系的に導入し、キーアーキテクチャをリカレントニューラルネットワーク(RNN)からBERTのようなトランスフォーマーベースのモデルに記述する。
アンサンブル技術の適用性を強調し、様々なNLPアプリケーションを強化する能力を強調している。
計算オーバーヘッド、オーバーフィッティング、モデル解釈複雑性などの実装上の課題に対処する。
論文 参考訳(メタデータ) (2023-12-09T14:49:34Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Natural Language Processing for Requirements Formalization: How to
Derive New Approaches? [0.32885740436059047]
我々はNLPの分野における主要な考え方と最先端の方法論について論じる。
我々は2つの異なるアプローチを詳細に議論し、ルールセットの反復的開発を強調した。
提案手法は, 自動車分野と鉄道分野の2つの産業分野において実証された。
論文 参考訳(メタデータ) (2023-09-23T05:45:19Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Technical Report on Neural Language Models and Few-Shot Learning for
Systematic Requirements Processing in MDSE [1.6286277560322266]
本論文は,自動車要件のオープンソースセットの分析に基づくものである。
ドメイン固有の言語構造を導き、要求の不明瞭さを回避し、形式性のレベルを上げるのに役立ちます。
論文 参考訳(メタデータ) (2022-11-16T18:06:25Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。