論文の概要: Explainable Predictive Maintenance
- arxiv url: http://arxiv.org/abs/2306.05120v1
- Date: Thu, 8 Jun 2023 11:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 14:47:48.868532
- Title: Explainable Predictive Maintenance
- Title(参考訳): 説明可能な予測保守
- Authors: Sepideh Pashami, Slawomir Nowaczyk, Yuantao Fan, Jakub Jakubowski,
Nuno Paiva, Narjes Davari, Szymon Bobek, Samaneh Jamshidi, Hamid Sarmadi,
Abdallah Alabdallah, Rita P. Ribeiro, Bruno Veloso, Moamar Sayed-Mouchaweh,
Lala Rajaoarisoa, Grzegorz J. Nalepa, Jo\~ao Gama
- Abstract要約: 本稿では,既存のXAI手法と産業応用における説明の具体的要件とのギャップを浮き彫りにする。
本稿では,予測保守作業の概要と,それに対応する説明の必要性と目的を強調する。
次に、文献で一般的に使われているXAIテクニックをリストアップし、記述し、PdMタスクに適合性について論じる。
- 参考スコア(独自算出の注目度): 6.274171448205146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) fills the role of a critical
interface fostering interactions between sophisticated intelligent systems and
diverse individuals, including data scientists, domain experts, end-users, and
more. It aids in deciphering the intricate internal mechanisms of ``black box''
Machine Learning (ML), rendering the reasons behind their decisions more
understandable. However, current research in XAI primarily focuses on two
aspects; ways to facilitate user trust, or to debug and refine the ML model.
The majority of it falls short of recognising the diverse types of explanations
needed in broader contexts, as different users and varied application areas
necessitate solutions tailored to their specific needs.
One such domain is Predictive Maintenance (PdM), an exploding area of
research under the Industry 4.0 \& 5.0 umbrella. This position paper highlights
the gap between existing XAI methodologies and the specific requirements for
explanations within industrial applications, particularly the Predictive
Maintenance field. Despite explainability's crucial role, this subject remains
a relatively under-explored area, making this paper a pioneering attempt to
bring relevant challenges to the research community's attention. We provide an
overview of predictive maintenance tasks and accentuate the need and varying
purposes for corresponding explanations. We then list and describe XAI
techniques commonly employed in the literature, discussing their suitability
for PdM tasks. Finally, to make the ideas and claims more concrete, we
demonstrate XAI applied in four specific industrial use cases: commercial
vehicles, metro trains, steel plants, and wind farms, spotlighting areas
requiring further research.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、高度なインテリジェントシステムと、データサイエンティスト、ドメインエキスパート、エンドユーザなど、さまざまな個人とのインタラクションを促進する重要なインターフェースの役割を担っている。
これは 'black box''' 機械学習 (ML) の複雑な内部メカニズムの解読に役立ち、意思決定の背後にある理由をより理解しやすいものにする。
しかしながら、XAIにおける現在の研究は、主に、ユーザの信頼を促進する方法、あるいはMLモデルのデバッグと洗練の2つの側面に焦点を当てている。
ユーザやさまざまなアプリケーション領域が、特定のニーズに合わせたソリューションを必要としているため、より広いコンテキストで必要とされるさまざまなタイプの説明を認識するには不足しています。
そのような領域の1つがプレデクティブ・メンテナンス(PdM)であり、産業 4.0 \& 5.0 の傘の下で爆発する研究領域である。
本稿では,既存のXAI方法論と産業応用,特に予測保守分野における説明の具体的な要件とのギャップを強調する。
説明責任が重要な役割を担っているにもかかわらず、この主題は比較的未調査の領域であり、この論文は研究コミュニティの注目に関連性のある課題をもたらす先駆的な試みである。
我々は,予測保守作業の概要を提供し,対応説明の必要性と目的を強調する。
次に、文献で一般的に用いられているXAIテクニックをリストし、記述し、PdMタスクに適合性について論じる。
最後に、このアイデアと主張をより具体化するために、XAIは商用車、地下鉄、鉄鋼工場、風力発電所の4つの特定の産業ユースケースに適用され、さらなる研究を必要とするスポットライティングエリアを実演する。
関連論文リスト
- MMAU: A Holistic Benchmark of Agent Capabilities Across Diverse Domains [54.117238759317004]
大規模マルチタスクエージェント理解(MMAU)ベンチマークは、複雑な環境設定を必要としない包括的なオフラインタスクを特徴としている。
ツールユース、DAG(Directed Acyclic Graph)QA、データサイエンスと機械学習コーディング、コンテストレベルのプログラミング、数学の5分野にわたるモデルを評価する。
3K以上の異なるプロンプトを含む20の精巧に設計されたタスクにより、MMAUはLLMエージェントの強度と限界を評価するための包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-07-18T00:58:41Z) - Exploring Commonalities in Explanation Frameworks: A Multi-Domain Survey Analysis [0.0]
本研究は,3つの領域の専門家による調査および議論から得られた知見を提示する。
分析されたアプリケーションには、医療シナリオ(予測MLを含む)、小売ユースケース(規範MLを含む)、エネルギーユースケース(予測MLも含む)が含まれる。
以上の結果から,より説明可能性の高い精度を犠牲にすることが普遍的に望まれることが示唆された。
論文 参考訳(メタデータ) (2024-05-20T11:28:32Z) - The Thousand Faces of Explainable AI Along the Machine Learning Life
Cycle: Industrial Reality and Current State of Research [37.69303106863453]
この知見は機械学習ライフサイクルにおけるXAIの役割と適用性に関する広範なインタビューに基づいている。
また,不透明なAIモデルの非専門家の解釈と理解を可能にするためには,さらなる努力が必要であることも確認した。
論文 参考訳(メタデータ) (2023-10-11T20:45:49Z) - Building Interpretable and Reliable Open Information Retriever for New
Domains Overnight [67.03842581848299]
情報検索は、オープンドメイン質問応答(QA)など、多くのダウンストリームタスクにとって重要な要素である。
本稿では、エンティティ/イベントリンクモデルとクエリ分解モデルを用いて、クエリの異なる情報単位により正確にフォーカスする情報検索パイプラインを提案する。
より解釈可能で信頼性が高いが,提案したパイプラインは,5つのIRおよびQAベンチマークにおける通過カバレッジと記述精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-09T07:47:17Z) - Industrial Segment Anything -- a Case Study in Aircraft Manufacturing,
Intralogistics, Maintenance, Repair, and Overhaul [1.7183906167272582]
ビジョン・ファンデーション・モデル(VFM)に関する最近の研究のアドバンテージは、高い一般化能力を持つタスクとモデルの新たな領域を開放した。
本論文は, 航空機生産特化ユースケースにおけるSAMの応用を調査することによって貢献する。
論文 参考訳(メタデータ) (2023-07-24T10:24:13Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - SoK: Explainable Machine Learning for Computer Security Applications [9.078841062353561]
我々は、サイバーセキュリティタスクにXAIメソッドを開発し、活用する、ますます増加する(しかし断片化された)研究のマイクロコズムを体系化する。
MLパイプライン内の5つの異なる目的のためにXAIを利用する3つのサイバーセキュリティステークホルダー、すなわち、モデルユーザー、デザイナ、および敵を特定します。
論文 参考訳(メタデータ) (2022-08-22T21:23:13Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Principles and Practice of Explainable Machine Learning [12.47276164048813]
本稿では、特に機械学習(ML)とパターン認識モデルに関するデータ駆動手法に焦点を当てる。
メソッドの頻度と複雑さが増すにつれて、少なくともビジネスの利害関係者はモデルの欠点に懸念を抱いている。
我々は、業界実践者が説明可能な機械学習の分野をよりよく理解するための調査を実施した。
論文 参考訳(メタデータ) (2020-09-18T14:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。