論文の概要: Explainable AI (XAI) for PHM of Industrial Asset: A State-of-The-Art,
PRISMA-Compliant Systematic Review
- arxiv url: http://arxiv.org/abs/2107.03869v1
- Date: Thu, 8 Jul 2021 14:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 16:19:47.911297
- Title: Explainable AI (XAI) for PHM of Industrial Asset: A State-of-The-Art,
PRISMA-Compliant Systematic Review
- Title(参考訳): 産業資産のPHMのための説明可能なAI(XAI:The-The-Art, PRISMA-Compliant Systematic Review)
- Authors: Ahmad Kamal BIN MOHD NOR, Srinivasa Rao PEDAPATI, Masdi MUHAMMAD
- Abstract要約: 産業資産の予後・健康管理(PHM)に適用されたXAIに関する最新の体系的レビューを紹介する。
本研究は,PHM XAIの精度と説明可能性,人的役割の程度,説明可能性評価,不確実性管理について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A state-of-the-art systematic review on XAI applied to Prognostic and Health
Management (PHM) of industrial asset is presented. The work attempts to provide
an overview of the general trend of XAI in PHM, answers the question of
accuracy versus explainability, investigates the extent of human role,
explainability evaluation and uncertainty management in PHM XAI. Research
articles linked to PHM XAI, in English language, from 2015 to 2021 are selected
from IEEE Xplore, ScienceDirect, SpringerLink, ACM Digital Library and Scopus
databases using PRISMA guidelines. Data was extracted from 35 selected articles
and examined using MS. Excel. Several findings were synthesized. Firstly, while
the discipline is still young, the analysis indicates the growing acceptance of
XAI in PHM domain. Secondly, XAI functions as a double edge sword, where it is
assimilated as a tool to execute PHM tasks as well as a mean of explanation, in
particular in diagnostic and anomaly detection. There is thus a need for XAI in
PHM. Thirdly, the review shows that PHM XAI papers produce either good or
excellent results in general, suggesting that PHM performance is unaffected by
XAI. Fourthly, human role, explainability metrics and uncertainty management
are areas requiring further attention by the PHM community. Adequate
explainability metrics to cater for PHM need are urgently needed. Finally, most
case study featured on the accepted articles are based on real, indicating that
available AI and XAI approaches are equipped to solve complex real-world
challenges, increasing the confidence of AI model adoption in the industry.
This work is funded by the Universiti Teknologi Petronas Foundation.
- Abstract(参考訳): 産業資産の予後・健康管理(PHM)に適用されたXAIに関する最新の体系的レビューを紹介する。
この研究は、PHMにおけるXAIの一般的な傾向の概要を提供し、正確性と説明可能性の疑問に答え、PHM XAIにおける人的役割の程度、説明可能性の評価、不確実性管理について調査する。
2015年から2021年までのPHM XAIに関連する研究論文は、IEEE Xplore、ScienceDirect、SpringerLink、ACM Digital Library、Scopusデータベースから、PRISMAガイドラインを用いて選択されている。
35項目からデータを抽出し,MS.Excelを用いて検討した。
いくつかの発見が合成された。
第一に、規律はまだ若いが、この分析はPHMドメインにおけるXAIの受容が増加することを示している。
第2に、XAIは二重刃剣として機能し、特に診断や異常検出において、PHMタスクの実行と説明の手段として同化される。
したがって、PHMにはXAIが必要である。
第3に、PHM XAI論文は、一般的に良い結果または優れた結果をもたらすことを示し、PHM性能がXAIの影響を受けないことを示唆している。
第4に、人間の役割、説明可能性指標、不確実性管理はPHMコミュニティのさらなる注意を必要とする領域である。
PHMのニーズを満たすための適切な説明可能性指標が緊急必要である。
最後に、受け入れられた記事に取り上げられたほとんどのケーススタディは、現実に基づいており、利用可能なAIとXAIアプローチが、複雑な現実世界の課題を解決するために装備されていることを示し、業界におけるAIモデルの採用に対する自信を高めている。
この研究は、Universiti Teknologi Petronas Foundationが出資している。
関連論文リスト
- Explainable AI needs formal notions of explanation correctness [2.1309989863595677]
医学のような重要な分野における機械学習はリスクをもたらし、規制を必要とする。
1つの要件は、リスクの高いアプリケーションにおけるMLシステムの決定は、人間に理解可能なものであるべきです。
現在の形式では、XAIはMLの品質管理に不適であり、それ自体は精査が必要である。
論文 参考訳(メタデータ) (2024-09-22T20:47:04Z) - A Survey of Explainable Artificial Intelligence (XAI) in Financial Time Series Forecasting [1.2937020918620652]
eXplainable AI(XAI)の分野は、AIモデルをより理解しやすくすることを目指している。
本稿では、金融時系列を予測するXAIアプローチを分類する。
金融におけるXAIの現在の役割を包括的に把握している。
論文 参考訳(メタデータ) (2024-07-22T17:06:19Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - A Review on Explainable Artificial Intelligence for Healthcare: Why,
How, and When? [0.0]
我々は、説明可能な人工知能(XAI)の体系的分析を行う。
このレビューでは、XAIの主流傾向を分析し、研究の方向性について概説する。
本稿では、医療分野におけるAIモデルの記述から信頼できるAIをどのように導き出すことができるかを説明する。
論文 参考訳(メタデータ) (2023-04-10T17:40:21Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - DrugOOD: Out-of-Distribution (OOD) Dataset Curator and Benchmark for
AI-aided Drug Discovery -- A Focus on Affinity Prediction Problems with Noise
Annotations [90.27736364704108]
我々は、AI支援薬物発見のための体系的なOODデータセットキュレーターおよびベンチマークであるTarmOODを提案する。
DrugOODには、ベンチマークプロセスを完全に自動化するオープンソースのPythonパッケージが付属している。
我々は、薬物標的結合親和性予測という、AIDDにおける最も重要な問題の1つに焦点を当てる。
論文 参考訳(メタデータ) (2022-01-24T12:32:48Z) - Data Representing Ground-Truth Explanations to Evaluate XAI Methods [0.0]
現在、説明可能な人工知能(XAI)手法は、主に解釈可能な機械学習(IML)研究に由来するアプローチで評価されている。
本稿では,XAI手法の精度を評価するために用いられる正準方程式を用いた説明法を提案する。
論文 参考訳(メタデータ) (2020-11-18T16:54:53Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable Artificial Intelligence Based Fault Diagnosis and Insight
Harvesting for Steel Plates Manufacturing [0.0]
本研究は,高精度分類器の開発におけるデータサイエンスのプロセスに対するXAIに基づく洞察を取り入れた方法論について報告する。
Ceteris Peribusプロファイル、Partial Dependenceプロファイル、Breakdownプロファイルが取得されている。
すべての洞察を単一のアンサンブル分類器に組み込んだ10倍のクロス検証性能が94%で達成された。
論文 参考訳(メタデータ) (2020-08-10T23:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。