論文の概要: Explainable Artificial Intelligence Techniques for Software Development Lifecycle: A Phase-specific Survey
- arxiv url: http://arxiv.org/abs/2505.07058v1
- Date: Sun, 11 May 2025 17:09:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.188814
- Title: Explainable Artificial Intelligence Techniques for Software Development Lifecycle: A Phase-specific Survey
- Title(参考訳): ソフトウェア開発ライフサイクルのための説明可能な人工知能技術:フェーズ固有の調査
- Authors: Lakshit Arora, Sanjay Surendranath Girija, Shashank Kapoor, Aman Raj, Dipen Pradhan, Ankit Shetgaonkar,
- Abstract要約: 説明可能な人工知能(XAI)は、AIシステムをより解釈可能で透明にするブラックボックス問題に対処するために登場した。
本稿では,SDLC(Software Development Life Cycle)のすべてのフェーズを対象としたXAI技術に関する総合的な調査を行う。
- 参考スコア(独自算出の注目度): 1.4513830934124627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) is rapidly expanding and integrating more into daily life to automate tasks, guide decision making, and enhance efficiency. However, complex AI models, which make decisions without providing clear explanations (known as the "black-box problem"), currently restrict trust and widespread adoption of AI. Explainable Artificial Intelligence (XAI) has emerged to address the black-box problem of making AI systems more interpretable and transparent so stakeholders can trust, verify, and act upon AI-based outcomes. Researchers have developed various techniques to foster XAI in the Software Development Lifecycle. However, there are gaps in applying XAI techniques in the Software Engineering phases. Literature review shows that 68% of XAI in Software Engineering research is focused on maintenance as opposed to 8% on software management and requirements. In this paper, we present a comprehensive survey of the applications of XAI methods such as concept-based explanations, Local Interpretable Model-agnostic Explanations (LIME), SHapley Additive exPlanations (SHAP), rule extraction, attention mechanisms, counterfactual explanations, and example-based explanations to the different phases of the Software Development Life Cycle (SDLC), including requirements elicitation, design and development, testing and deployment, and evolution. To the best of our knowledge, this paper presents the first comprehensive survey of XAI techniques for every phase of the Software Development Life Cycle (SDLC). This survey aims to promote explainable AI in Software Engineering and facilitate the practical application of complex AI models in AI-driven software development.
- Abstract(参考訳): 人工知能(AI)は、タスクの自動化、意思決定のガイド、効率の向上のために、日々の生活に急速に拡大し、統合している。
しかしながら、明確な説明を提供することなく決定を行う複雑なAIモデル("ブラックボックス問題"として知られる)は、現在、AIの信頼性と普及を制限している。
説明可能な人工知能(XAI)は、AIシステムをより解釈可能で透明なものにすることで、ステークホルダーがAIベースの成果を信頼し、検証し、実行できるようにするブラックボックス問題に対処するために登場した。
研究者たちは、ソフトウェア開発ライフサイクルでXAIを育むための様々なテクニックを開発しました。
しかしながら、ソフトウェアエンジニアリングのフェーズではXAI技術の適用にはギャップがあります。
ソフトウェアエンジニアリング研究におけるXAIの68%は、ソフトウェア管理と要件の8%とは対照的に、メンテナンスに重点を置いている。
本稿では,概念に基づく説明,局所解釈型モデル非依存説明 (LIME), SHAP, ルール抽出, 注意機構, 反ファクト的説明, およびソフトウェア開発ライフサイクル (SDLC) の異なるフェーズに対する例に基づく説明などのXAI手法の適用について, 要件の導出, 設計, 開発, テスト, 展開, 進化を含む総合的な調査を行う。
我々の知る限り、ソフトウェア開発ライフサイクル(SDLC)の各段階におけるXAI技術に関する総合的な調査は、今回が初めてである。
この調査は、ソフトウェア工学における説明可能なAIを促進し、AI駆動ソフトウェア開発における複雑なAIモデルの実践的適用を促進することを目的としている。
関連論文リスト
- Explainability for Embedding AI: Aspirations and Actuality [1.8130068086063336]
説明可能なAI(XAI)は、開発者が構築するシステムをよりよく理解することを可能にする。
既存のXAIシステムは、まだこの願望には達していない。
私たちは、この複雑さに対処するための適切なサポートメカニズムを開発者に提供する必要があると考えています。
論文 参考訳(メタデータ) (2025-04-20T14:20:01Z) - AI's Impact on Traditional Software Development [0.0]
人工知能(AI)の応用は、従来の戦術ソフトウェア開発に大きな変化をもたらした。
本稿では,従来のソフトウェア開発ライフサイクル方法論にAIを統合する技術的側面について考察する。
論文 参考訳(メタデータ) (2025-02-05T14:58:09Z) - A Multi-Year Grey Literature Review on AI-assisted Test Automation [46.97326049485643]
テスト自動化(TA)技術は、ソフトウェアエンジニアリングの品質保証には不可欠だが、制限に直面している。
業界でAIが広く使われていることを考えると、真実の情報源はグレー文学だけでなく、専門家の心にも当てはまる。
この研究は、グレーの文献を調査し、AIがTAでどのように採用されているかを調査し、解決する問題、そのソリューション、利用可能なツールに焦点を当てる。
論文 参考訳(メタデータ) (2024-08-12T15:26:36Z) - Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - AI in Software Engineering: A Survey on Project Management Applications [3.156791351998142]
機械学習(ML)はデータセットでトレーニングを行うアルゴリズムを採用しており、特定のタスクを自律的に実行することができる。
AIは、特にプロジェクト管理と計画において、ソフトウェアエンジニアリングの分野で大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-07-27T23:02:24Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Automated Machine Learning: A Case Study on Non-Intrusive Appliance Load Monitoring [81.06807079998117]
非侵入的機器負荷モニタリング(NIALM)のための自動機械学習(AutoML)を実現する新しい手法を提案する。
NIALMは、電子機器や家電のエネルギー消費を測定するためのスマートメーターに代わる費用対効果を提供する。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。