論文の概要: Explainable AI for tool wear prediction in turning
- arxiv url: http://arxiv.org/abs/2308.08765v1
- Date: Thu, 17 Aug 2023 03:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:05:59.697841
- Title: Explainable AI for tool wear prediction in turning
- Title(参考訳): 回転時のツール摩耗予測のための説明可能なAI
- Authors: Saleh Valizadeh Sotubadi and Rui Liu and Vinh Neguyen
- Abstract要約: 本研究は,ツール摩耗予測のための人間の理解可能なソリューションを容易にするための,説明可能な人工知能(XAI)フレームワークの開発を目的とする。
ランダムフォレストアルゴリズムは、トレーニングとバイナリ分類のための教師付き機械学習(ML)分類器として使用された。
Shapley criterionは、訓練されたML分類器の予測を説明するために使用された。
- 参考スコア(独自算出の注目度): 3.391256280235937
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This research aims develop an Explainable Artificial Intelligence (XAI)
framework to facilitate human-understandable solutions for tool wear prediction
during turning. A random forest algorithm was used as the supervised Machine
Learning (ML) classifier for training and binary classification using
acceleration, acoustics, temperature, and spindle speed during the orthogonal
tube turning process as input features. The ML classifier was used to predict
the condition of the tool after the cutting process, which was determined in a
binary class form indicating if the cutting tool was available or failed. After
the training process, the Shapley criterion was used to explain the predictions
of the trained ML classifier. Specifically, the significance of each input
feature in the decision-making and classification was identified to explain the
reasoning of the ML classifier predictions. After implementing the Shapley
criterion on all testing datasets, the tool temperature was identified as the
most significant feature in determining the classification of available versus
failed cutting tools. Hence, this research demonstrates capability of XAI to
provide machining operators the ability to diagnose and understand complex ML
classifiers in prediction of tool wear.
- Abstract(参考訳): 本研究は,ツール摩耗予測のための人間の理解可能なソリューションを容易にするための,説明可能な人工知能(XAI)フレームワークの開発を目的とする。
直交管回転過程における加速度,音響,温度,スピンドル速度を入力特徴として用いた教師付き機械学習(ml)分類法としてランダムフォレストアルゴリズムを用いた。
ML分類器は切断プロセス後のツールの状態を予測するために用いられ、これは切断ツールが利用可能か失敗したかを示すバイナリクラス形式で決定された。
トレーニング終了後、訓練されたML分類器の予測を説明するためにShapley criterionを使用した。
具体的には,判断・分類における各入力特徴の重要性を同定し,ML分類器の推理を説明する。
すべてのテストデータセットでShapley基準を実装した後、ツール温度は、利用可能なツールと失敗したツールの分類を決定する上で最も重要な特徴として特定された。
そこで本研究では,XAIが機械作業者に対して,複雑なML分類器を診断・理解し,ツール摩耗の予測を可能にする能力を示す。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Comprehensive Study Of Predictive Maintenance In Industries Using Classification Models And LSTM Model [0.0]
この研究は、SVM(Support Vector Machine)、ランダムフォレスト(Random Forest)、ロジスティック回帰(Logistic Regression)、畳み込みニューラルネットワークLSTMベース(Convolutional Neural Network LSTM-based)など、さまざまな機械学習分類手法を掘り下げて、マシンのパフォーマンスを予測し分析することを目的としている。
本研究の主な目的は、精度、精度、リコール、F1スコアなどの要因を考慮して、これらのアルゴリズムの性能を評価し、機械性能を予測・解析することである。
論文 参考訳(メタデータ) (2024-03-15T12:47:45Z) - Active Inference on the Edge: A Design Study [5.815300670677979]
アクティブ推論(アクティブ推論、英: Active Inference、ACI)とは、脳が知覚情報を常に予測し評価し、長期的サプライズを減らす方法を記述する神経科学の概念である。
我々は,ACIエージェントが要求を満たすことなく,最適化問題を迅速かつ追跡的に解決できたことを示す。
論文 参考訳(メタデータ) (2023-11-17T16:03:04Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - RF+clust for Leave-One-Problem-Out Performance Prediction [0.9281671380673306]
本稿では,LOPO(Left-one-problem-out)のパフォーマンス予測について検討する。
我々は、標準ランダムフォレスト(RF)モデル予測が性能値の重み付き平均値で校正することで改善できるかどうかを解析する。
論文 参考訳(メタデータ) (2023-01-23T16:14:59Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - An Explainable Regression Framework for Predicting Remaining Useful Life
of Machines [6.374451442486538]
本稿では,機械の残留実用寿命(RUL)予測のための説明可能な回帰フレームワークを提案する。
また、古典的およびニューラルネットワーク(NN)に基づくタスクのためのソリューションを含む機械学習(ML)アルゴリズムを評価した。
論文 参考訳(メタデータ) (2022-04-28T15:44:12Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - Explainable AI for Classification using Probabilistic Logic Inference [9.656846523452502]
説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
論文 参考訳(メタデータ) (2020-05-05T11:39:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。