論文の概要: A Systematic Literature Review on Explainability for Machine/Deep Learning-based Software Engineering Research
- arxiv url: http://arxiv.org/abs/2401.14617v2
- Date: Wed, 05 Feb 2025 16:10:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:25:53.056695
- Title: A Systematic Literature Review on Explainability for Machine/Deep Learning-based Software Engineering Research
- Title(参考訳): 機械/深層学習に基づくソフトウェア工学研究における説明可能性に関する体系的文献レビュー
- Authors: Sicong Cao, Xiaobing Sun, Ratnadira Widyasari, David Lo, Xiaoxue Wu, Lili Bo, Jiale Zhang, Bin Li, Wei Liu, Di Wu, Yixin Chen,
- Abstract要約: 本稿では,ソフトウェア工学の文脈におけるAIモデルの説明可能性の向上を目的とした,体系的な文献レビューを行う。
我々は,XAI技術がこれまで成功してきたSEタスク,(2)異なるXAI手法の分類と分析,(3)既存の評価手法を考察することを目的としている。
- 参考スコア(独自算出の注目度): 23.273934717819795
- License:
- Abstract: The remarkable achievements of Artificial Intelligence (AI) algorithms, particularly in Machine Learning (ML) and Deep Learning (DL), have fueled their extensive deployment across multiple sectors, including Software Engineering (SE). However, due to their black-box nature, these promising AI-driven SE models are still far from being deployed in practice. This lack of explainability poses unwanted risks for their applications in critical tasks, such as vulnerability detection, where decision-making transparency is of paramount importance. This paper endeavors to elucidate this interdisciplinary domain by presenting a systematic literature review of approaches that aim to improve the explainability of AI models within the context of SE. The review canvasses work appearing in the most prominent SE & AI conferences and journals, and spans 108 papers across 23 unique SE tasks. Based on three key Research Questions (RQs), we aim to (1) summarize the SE tasks where XAI techniques have shown success to date; (2) classify and analyze different XAI techniques; and (3) investigate existing evaluation approaches. Based on our findings, we identified a set of challenges remaining to be addressed in existing studies, together with a set of guidelines highlighting potential opportunities we deemed appropriate and important for future work.
- Abstract(参考訳): 人工知能(AI)アルゴリズムの顕著な成果、特に機械学習(ML)とディープラーニング(DL)は、ソフトウェア工学(SE)を含む複数の分野にまたがって広範囲に展開している。
しかし、そのブラックボックスの性質のため、これらの有望なAI駆動SEモデルは、実際にデプロイされるには程遠い。
この説明責任の欠如は、意思決定の透明性が最重要事項である脆弱性検出などの重要なタスクにおいて、アプリケーションに望ましくないリスクをもたらす。
本稿では、SEの文脈におけるAIモデルの説明可能性の向上を目的とした、系統的な文献レビューを行い、この学際領域の解明に努める。
レビューのカンバスは、最も著名なSE & AIカンファレンスやジャーナルに登場し、23のユニークなSEタスクにわたる108の論文にまたがる。
3つの重要な研究課題(RQ)に基づいて,(1)XAI技術がこれまで成功してきたSEタスクの要約,(2)異なるXAI手法の分類と分析,(3)既存の評価手法の検証を目指す。
本研究の結果から,既存の研究で取り組まなければならない課題のセットと,今後の研究に適切かつ重要と考えられる可能性を示すガイドラインのセットを特定した。
関連論文リスト
- O1 Replication Journey: A Strategic Progress Report -- Part 1 [52.062216849476776]
本稿では,O1 Replication Journeyに具体化された人工知能研究の先駆的アプローチを紹介する。
我々の方法論は、長期化したチームベースのプロジェクトの不規則性を含む、現代のAI研究における重要な課題に対処する。
本稿では,モデルにショートカットだけでなく,完全な探索プロセスの学習を促す旅行学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-08T15:13:01Z) - A Comprehensive Survey on Underwater Image Enhancement Based on Deep Learning [51.7818820745221]
水中画像強調(UIE)はコンピュータビジョン研究において重要な課題である。
多数のUIEアルゴリズムが開発されているにもかかわらず、網羅的で体系的なレビューはいまだに欠落している。
論文 参考訳(メタデータ) (2024-05-30T04:46:40Z) - Gradient based Feature Attribution in Explainable AI: A Technical Review [13.848675695545909]
ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
論文 参考訳(メタデータ) (2024-03-15T15:49:31Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - The Thousand Faces of Explainable AI Along the Machine Learning Life
Cycle: Industrial Reality and Current State of Research [37.69303106863453]
この知見は機械学習ライフサイクルにおけるXAIの役割と適用性に関する広範なインタビューに基づいている。
また,不透明なAIモデルの非専門家の解釈と理解を可能にするためには,さらなる努力が必要であることも確認した。
論文 参考訳(メタデータ) (2023-10-11T20:45:49Z) - Resilience of Deep Learning applications: a systematic literature review of analysis and hardening techniques [3.265458968159693]
このレビューは、2019年1月から2024年3月までに発行された220の科学論文に基づいている。
著者らは、研究の類似点と特異点を解釈し、強調するために分類フレームワークを採用している。
論文 参考訳(メタデータ) (2023-09-27T19:22:19Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - On the Importance of Domain-specific Explanations in AI-based
Cybersecurity Systems (Technical Report) [7.316266670238795]
このような決定に対する理解の欠如は、サイバーセキュリティに関連する重要なドメインにおいて大きな欠点となる可能性がある。
本稿では,AIベースのサイバーセキュリティシステムによって生成されたアウトプットを説明するために,デシダラタの提案と議論を行う。 (ii)デシダラタのレンズ下での文献におけるアプローチと,XAIアプローチの検証に一般的に使用される余分な次元の比較分析,および (iii)AIベースのサイバーセキュリティシステムの開発に向けた研究活動の指針となる一般的なアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2021-08-02T22:55:13Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z) - A Systematic Literature Review on the Use of Deep Learning in Software
Engineering Research [22.21817722054742]
ソフトウェア開発タスクを自動化するために、ソフトウェア工学(SE)研究者が採用するテクニックのセットが、ディープラーニング(DL)の概念に根ざしている。
本稿では,SE & DLの交差点における研究の体系的な文献レビューを行う。
我々は、機械学習技術の特定の問題領域への適用を規定する一連の原則である学習の構成要素を中心に分析を行う。
論文 参考訳(メタデータ) (2020-09-14T15:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。