論文の概要: An Explainable Regression Framework for Predicting Remaining Useful Life
of Machines
- arxiv url: http://arxiv.org/abs/2204.13574v1
- Date: Thu, 28 Apr 2022 15:44:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 17:12:55.682592
- Title: An Explainable Regression Framework for Predicting Remaining Useful Life
of Machines
- Title(参考訳): 機械の残存寿命予測のための説明可能な回帰フレームワーク
- Authors: Talhat Khan, Kashif Ahmad, Jebran Khan, Imran Khan, Nasir Ahmad
- Abstract要約: 本稿では,機械の残留実用寿命(RUL)予測のための説明可能な回帰フレームワークを提案する。
また、古典的およびニューラルネットワーク(NN)に基づくタスクのためのソリューションを含む機械学習(ML)アルゴリズムを評価した。
- 参考スコア(独自算出の注目度): 6.374451442486538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prediction of a machine's Remaining Useful Life (RUL) is one of the key tasks
in predictive maintenance. The task is treated as a regression problem where
Machine Learning (ML) algorithms are used to predict the RUL of machine
components. These ML algorithms are generally used as a black box with a total
focus on the performance without identifying the potential causes behind the
algorithms' decisions and their working mechanism. We believe, the performance
(in terms of Mean Squared Error (MSE), etc.,) alone is not enough to build the
trust of the stakeholders in ML prediction rather more insights on the causes
behind the predictions are needed. To this aim, in this paper, we explore the
potential of Explainable AI (XAI) techniques by proposing an explainable
regression framework for the prediction of machines' RUL. We also evaluate
several ML algorithms including classical and Neural Networks (NNs) based
solutions for the task. For the explanations, we rely on two model agnostic XAI
methods namely Local Interpretable Model-Agnostic Explanations (LIME) and
Shapley Additive Explanations (SHAP). We believe, this work will provide a
baseline for future research in the domain.
- Abstract(参考訳): 機械の残留実用寿命(RUL)の予測は、予測保守における重要なタスクの1つである。
このタスクは、機械学習(ML)アルゴリズムを使用してマシンコンポーネントのRULを予測する回帰問題として扱われる。
これらのMLアルゴリズムは一般に、アルゴリズムの決定と動作メカニズムの背後にある潜在的な原因を特定することなく、パフォーマンスに全力を注ぐブラックボックスとして使用される。
私たちは、パフォーマンス(平均二乗誤差(MSE)など)だけでは、予測の背後にある原因に関する洞察よりも、ML予測における利害関係者の信頼を構築するには不十分だと信じています。
本稿では,機械のRUL予測のための説明可能な回帰フレームワークを提案することにより,説明可能なAI(XAI)技術の可能性を検討する。
また,そのタスクに対する古典的およびニューラルネットワーク(nns)ベースのソリューションを含む,いくつかのmlアルゴリズムを評価した。
説明のために、我々は2つのモデル非依存XAIメソッド、すなわちLocal Interpretable Model-Agnostic Explanations (LIME)とShapley Additive Explanations (SHAP)に依存している。
我々は、この研究が将来の研究のベースラインとなると信じている。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Achieving interpretable machine learning by functional decomposition of black-box models into explainable predictor effects [4.3500439062103435]
ブラックボックス予測の関数分解のための新しい手法を提案する。
加法回帰モデルと同様に,本手法は主特徴量の方向と強度に関する洞察を与える。
論文 参考訳(メタデータ) (2024-07-26T10:37:29Z) - Comprehensive Study Of Predictive Maintenance In Industries Using Classification Models And LSTM Model [0.0]
この研究は、SVM(Support Vector Machine)、ランダムフォレスト(Random Forest)、ロジスティック回帰(Logistic Regression)、畳み込みニューラルネットワークLSTMベース(Convolutional Neural Network LSTM-based)など、さまざまな機械学習分類手法を掘り下げて、マシンのパフォーマンスを予測し分析することを目的としている。
本研究の主な目的は、精度、精度、リコール、F1スコアなどの要因を考慮して、これらのアルゴリズムの性能を評価し、機械性能を予測・解析することである。
論文 参考訳(メタデータ) (2024-03-15T12:47:45Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Outage Performance and Novel Loss Function for an ML-Assisted Resource
Allocation: An Exact Analytical Framework [2.1397655110395752]
本稿では,MLベースのリソース割り当てシステムの停止確率を最小限に抑えるために,新たな損失関数を提案する。
MLバイナリ分類予測器は、確立された停止基準を満たすリソースの選択を支援する。
論文 参考訳(メタデータ) (2023-05-16T18:23:52Z) - Interpretable by Design: Learning Predictors by Composing Interpretable
Queries [8.054701719767293]
機械学習アルゴリズムは設計によって解釈されるべきである。
正確な予測に必要なクエリの数を最小限に抑える。
視覚とNLPタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2022-07-03T02:40:34Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。