論文の概要: Reconsidering Requirements Engineering: Human-AI Collaboration in AI-Native Software Development
- arxiv url: http://arxiv.org/abs/2510.04380v1
- Date: Sun, 05 Oct 2025 21:58:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.618947
- Title: Reconsidering Requirements Engineering: Human-AI Collaboration in AI-Native Software Development
- Title(参考訳): 要件エンジニアリングを再考する: AI-Native Software Developmentにおける人間とAIのコラボレーション
- Authors: Mateen Ahmed Abbasi, Petri Ihantola, Tommi Mikkonen, Niko Mäkitalo,
- Abstract要約: 要求工学(RE)はソフトウェア開発を成功させる基盤です。
その重要な役割にもかかわらず、REはあいまいさ、ステークホルダーのニーズの矛盾、進化する要求の管理の複雑さなど、永続的な課題に直面し続けている。
本稿では、労働集約的なタスクを自動化し、要求優先化をサポートし、利害関係者とAIシステム間のコラボレーションを促進することによって、AIが従来のREプラクティスをどのように強化できるかを考察する。
- 参考スコア(独自算出の注目度): 2.195918681143262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Requirement Engineering (RE) is the foundation of successful software development. In RE, the goal is to ensure that implemented systems satisfy stakeholder needs through rigorous requirements elicitation, validation, and evaluation processes. Despite its critical role, RE continues to face persistent challenges, such as ambiguity, conflicting stakeholder needs, and the complexity of managing evolving requirements. A common view is that Artificial Intelligence (AI) has the potential to streamline the RE process, resulting in improved efficiency, accuracy, and management actions. However, using AI also introduces new concerns, such as ethical issues, biases, and lack of transparency. This paper explores how AI can enhance traditional RE practices by automating labor-intensive tasks, supporting requirement prioritization, and facilitating collaboration between stakeholders and AI systems. The paper also describes the opportunities and challenges that AI brings to RE. In particular, the vision calls for ethical practices in AI, along with a much-enhanced collaboration between academia and industry professionals. The focus should be on creating not only powerful but also trustworthy and practical AI solutions ready to adapt to the fast-paced world of software development.
- Abstract(参考訳): 要求工学(RE)はソフトウェア開発を成功させる基盤です。
REでは、厳格な要件の付与、検証、評価プロセスを通じて、実装されたシステムがステークホルダーのニーズを満たすことを保証することを目的としています。
その重要な役割にもかかわらず、REはあいまいさ、ステークホルダーのニーズの矛盾、進化する要求の管理の複雑さなど、永続的な課題に直面し続けている。
一般的な見解として、人工知能(AI)はREプロセスの合理化の可能性を秘めており、それによって効率、正確性、管理行動が改善されている。
しかし、AIの使用には倫理的問題、バイアス、透明性の欠如など、新たな懸念も持ち込まれている。
本稿では、労働集約的なタスクを自動化し、要求優先化をサポートし、利害関係者とAIシステム間のコラボレーションを促進することによって、AIが従来のREプラクティスをどのように強化できるかを考察する。
論文はまた、AIがREにもたらす機会と課題についても説明している。
とくにそのビジョンは、AIの倫理的実践と、学界と業界の専門家のコラボレーションだ。
焦点は、強力で信頼性の高い、実用的なAIソリューションを作成することだけでなく、迅速なペースのソフトウェア開発に適応する準備が整うことにあるべきです。
関連論文リスト
- Multi-agent Embodied AI: Advances and Future Directions [46.23631919950584]
エンボディード人工知能(Embodied AI)は、インテリジェントな時代における先進技術の適用において重要な役割を担っている。
本稿では,研究の現状を概観し,重要な貢献を分析し,課題と今後の方向性を明らかにする。
論文 参考訳(メタデータ) (2025-05-08T10:13:53Z) - An Empirical Study on Decision-Making Aspects in Responsible Software Engineering for AI [5.564793925574796]
本研究では、AIの責任あるソフトウェア工学(RSE)に固有の倫理的課題と複雑さについて検討する。
個人の価値観、新しい役割、そしてAIに対する認識は、AIのためのRSEにおける決定に責任を負う。
論文 参考訳(メタデータ) (2025-01-26T22:38:04Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The Responsible Development of Automated Student Feedback with Generative AI [6.008616775722921]
AIの最近の進歩、特に大規模言語モデル(LLM)では、スケーラブルで反復可能でインスタントなフィードバックを提供する新たな機会が提示されている。
しかし、これらの技術の実装には、慎重に対処しなければならない多くの倫理的考察も導入されている。
AIシステムの中核となる利点の1つは、ルーチンや日常的なタスクを自動化する能力であり、人間の教育者を解放して、より微妙な仕事をさせる可能性がある。
しかし、自動化の容易さは、少数派や独特な学習者の多様なニーズが見過ごされる「多数派」の暴行を招きかねない。
論文 参考訳(メタデータ) (2023-08-29T14:29:57Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。