論文の概要: Explainable, Interpretable & Trustworthy AI for Intelligent Digital Twin: Case Study on Remaining Useful Life
- arxiv url: http://arxiv.org/abs/2301.06676v2
- Date: Sun, 28 Apr 2024 05:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 03:37:12.882700
- Title: Explainable, Interpretable & Trustworthy AI for Intelligent Digital Twin: Case Study on Remaining Useful Life
- Title(参考訳): インテリジェントデジタル双生児のための説明可能な、解釈可能な、信頼できるAI:有用生活の継続を事例として
- Authors: Kazuma Kobayashi, Syed Bahauddin Alam,
- Abstract要約: エネルギーとエンジニアリングシステムにおけるAIの信頼性に自信を持つことは重要だ。
診断の正確な予測には、説明可能なAI(XAI)と解釈可能な機械学習(IML)が不可欠である。
- 参考スコア(独自算出の注目度): 0.5115559623386964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) and Machine learning (ML) are increasingly used in energy and engineering systems, but these models must be fair, unbiased, and explainable. It is critical to have confidence in AI's trustworthiness. ML techniques have been useful in predicting important parameters and in improving model performance. However, for these AI techniques to be useful for making decisions, they need to be audited, accounted for, and easy to understand. Therefore, the use of explainable AI (XAI) and interpretable machine learning (IML) is crucial for the accurate prediction of prognostics, such as remaining useful life (RUL), in a digital twin system, to make it intelligent while ensuring that the AI model is transparent in its decision-making processes and that the predictions it generates can be understood and trusted by users. By using AI that is explainable, interpretable, and trustworthy, intelligent digital twin systems can make more accurate predictions of RUL, leading to better maintenance and repair planning, and ultimately, improved system performance. The objective of this paper is to explain the ideas of XAI and IML and to justify the important role of AI/ML in the digital twin framework and components, which requires XAI to understand the prediction better. This paper explains the importance of XAI and IML in both local and global aspects to ensure the use of trustworthy AI/ML applications for RUL prediction. We used the RUL prediction for the XAI and IML studies and leveraged the integrated Python toolbox for interpretable machine learning~(PiML).
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)は、エネルギーとエンジニアリングシステムでますます使われているが、これらのモデルは公平で偏見がなく、説明可能である必要がある。
AIの信頼性に自信を持つことは重要だ。
ML技術は重要なパラメータの予測やモデルの性能向上に有用である。
しかし、これらのAI技術が意思決定に有用であるためには、監査、説明、理解しやすくする必要がある。
したがって、デジタルツインシステムにおいて、AIモデルが意思決定プロセスにおいて透明であり、それが生成する予測がユーザによって理解され、信頼されるようにしながら、AIモデルをインテリジェントにするために、説明可能なAI(XAI)と解釈可能な機械学習(IML)の使用は、有用寿命(RUL)などの予後の正確な予測に不可欠である。
説明可能な、解釈可能な、信頼性の高い、インテリジェントなデジタルツインシステムは、AIを使用することで、RULのより正確な予測が可能になる。
本稿の目的は,XAI と IML の考え方を説明し,AI/ML がデジタルツインフレームワークやコンポーネントにおいて果たす重要な役割を正当化することである。
本稿では、RUL予測に信頼できるAI/MLアプリケーションを使用することを保証するため、ローカルおよびグローバル両方の面において、XAIとIMLの重要性を説明する。
我々は,XAI と IML の研究に RUL 予測を用い,Python 統合ツールボックスを解釈可能な機械学習~ (PiML) に利用した。
関連論文リスト
- Explainable AI needs formal notions of explanation correctness [2.1309989863595677]
医学のような重要な分野における機械学習はリスクをもたらし、規制を必要とする。
1つの要件は、リスクの高いアプリケーションにおけるMLシステムの決定は、人間に理解可能なものであるべきです。
現在の形式では、XAIはMLの品質管理に不適であり、それ自体は精査が必要である。
論文 参考訳(メタデータ) (2024-09-22T20:47:04Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Robots That Ask For Help: Uncertainty Alignment for Large Language Model
Planners [85.03486419424647]
KnowNoは、大きな言語モデルの不確実性を測定し、調整するためのフレームワークである。
KnowNoは、タスク完了に関する統計的保証を提供する共形予測理論に基づいている。
論文 参考訳(メタデータ) (2023-07-04T21:25:12Z) - Explainable AI via Learning to Optimize [2.8010955192967852]
機械学習(ML)では非解読可能なブラックボックスが一般的だが、アプリケーションは説明可能な人工知能(XAI)を必要としている。
この作業は、事前の知識を符号化し、信頼できない推論をフラグ付けしなければならない状況において、XAIのための具体的なツールを提供する。
論文 参考訳(メタデータ) (2022-04-29T15:57:03Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Confident AI [0.0]
本稿では,人工知能(AI)と機械学習(ML)システムを,モデル予測と報告結果に対するアルゴリズムとユーザ信頼性の両方で設計する手段として,信頼AIを提案する。
Confident AIの4つの基本原則は、反復性、信頼性、十分性、適応性である。
論文 参考訳(メタデータ) (2022-02-12T02:26:46Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A Practical Tutorial on Explainable AI Techniques [5.671062637797752]
このチュートリアルは、コンピュータサイエンスのバックグラウンドを持つすべての読者にとって、手書きの教科書となることを意図している。
機械学習モデルの直感的な洞察を得ることを目標としている。
論文 参考訳(メタデータ) (2021-11-13T17:47:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Do ML Experts Discuss Explainability for AI Systems? A discussion case
in the industry for a domain-specific solution [3.190891983147147]
ドメインスペシャリストは、データとそれが意思決定に与える影響を理解する。
データに対する深い理解がなければ、MLの専門家は、特定のドメインに対して最適な結果を得るためにモデルをチューニングすることはできない。
さまざまなコンテキスト、ユーザ、目標に対するAI説明可能性の研究には、多くの取り組みがあります。
論文 参考訳(メタデータ) (2020-02-27T21:23:27Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。