論文の概要: AI for Requirements Engineering: Industry adoption and Practitioner perspectives
- arxiv url: http://arxiv.org/abs/2511.01324v3
- Date: Wed, 05 Nov 2025 06:43:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 13:56:26.175065
- Title: AI for Requirements Engineering: Industry adoption and Practitioner perspectives
- Title(参考訳): AI for Requirements Engineering: 産業採用と実践者の視点から
- Authors: Lekshmi Murali Rani, Richard Berntsson Svensson, Robert Feldt,
- Abstract要約: AI for Requirements Engineeringの統合には大きなメリットがありますが、真の課題もあります。
55人のソフトウェア実践者を調査して、4つのREフェーズ(引用、分析、仕様、検証)でAIの使用状況をマップしました。
回答者の58.2%がすでにREでAIを使用している。69.1%は、その影響を肯定的あるいは非常に肯定的であると考えている。
- 参考スコア(独自算出の注目度): 5.627981468468872
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The integration of AI for Requirements Engineering (RE) presents significant benefits but also poses real challenges. Although RE is fundamental to software engineering, limited research has examined AI adoption in RE. We surveyed 55 software practitioners to map AI usage across four RE phases: Elicitation, Analysis, Specification, and Validation, and four approaches for decision making: human-only decisions, AI validation, Human AI Collaboration (HAIC), and full AI automation. Participants also shared their perceptions, challenges, and opportunities when applying AI for RE tasks. Our data show that 58.2% of respondents already use AI in RE, and 69.1% view its impact as positive or very positive. HAIC dominates practice, accounting for 54.4% of all RE techniques, while full AI automation remains minimal at 5.4%. Passive AI validation (4.4 to 6.2%) lags even further behind, indicating that practitioners value AI's active support over passive oversight. These findings suggest that AI is most effective when positioned as a collaborative partner rather than a replacement for human expertise. It also highlights the need for RE-specific HAIC frameworks along with robust and responsible AI governance as AI adoption in RE grows.
- Abstract(参考訳): AI for Requirements Engineering(RE)の統合には大きなメリットがあるが、真の課題も生じている。
REはソフトウェア工学の基本であるが、限られた研究でREにおけるAIの採用が検討されている。
引用、分析、仕様、検証という4つのREフェーズにまたがって、55人のソフトウェア実践者を調査し、意思決定のための4つのアプローチとして、人間のみの決定、AI検証、ヒューマンAIコラボレーション(HAIC)、完全なAI自動化を調査しました。
参加者は、REタスクにAIを適用する際の認識、課題、機会も共有した。
我々のデータによると、回答者の58.2%がすでにREでAIを使用している。
HAICはすべてのREテクニックの54.4%を占めており、完全なAI自動化は5.4%と最小限である。
受動的AI検証(4.4~6.2%)はさらに遅れており、実践者は受動的監視よりもAIのアクティブなサポートを高く評価している。
これらの結果は、AIが人間の専門知識の代替ではなく、協力的なパートナーとして位置づけられる場合、最も効果的であることを示唆している。
また、REにおけるAIの採用が成長するにつれて、RE固有のHAICフレームワークと堅牢で責任あるAIガバナンスの必要性を強調している。
関連論文リスト
- Reconsidering Requirements Engineering: Human-AI Collaboration in AI-Native Software Development [2.195918681143262]
要求工学(RE)はソフトウェア開発を成功させる基盤です。
その重要な役割にもかかわらず、REはあいまいさ、ステークホルダーのニーズの矛盾、進化する要求の管理の複雑さなど、永続的な課題に直面し続けている。
本稿では、労働集約的なタスクを自動化し、要求優先化をサポートし、利害関係者とAIシステム間のコラボレーションを促進することによって、AIが従来のREプラクティスをどのように強化できるかを考察する。
論文 参考訳(メタデータ) (2025-10-05T21:58:44Z) - An Empirical Study on Decision-Making Aspects in Responsible Software Engineering for AI [5.564793925574796]
本研究では、AIの責任あるソフトウェア工学(RSE)に固有の倫理的課題と複雑さについて検討する。
個人の価値観、新しい役割、そしてAIに対する認識は、AIのためのRSEにおける決定に責任を負う。
論文 参考訳(メタデータ) (2025-01-26T22:38:04Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Comparing Zealous and Restrained AI Recommendations in a Real-World Human-AI Collaboration Task [11.040918613968854]
正確さとリコールのトレードオフを慎重に活用することで、チームのパフォーマンスが大幅に向上する、と私たちは主張する。
我々は、a)AIアシストなし、b)高精度な「制限された」AI、c)3,466時間以上のアノテーション作業で、78のプロのアノテータのパフォーマンスを分析する。
論文 参考訳(メタデータ) (2024-10-06T23:19:19Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Ethical AI for Social Good [0.0]
AI for Social Good(AI4SG)の概念は、情報社会とAIコミュニティの両方で勢いを増している。
本稿では,今後のAI4SGの取り組みに不可欠な倫理的側面に対処することで,その空白を埋める。
論文 参考訳(メタデータ) (2021-07-14T15:16:51Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。