論文の概要: Explainable AI for Correct Root Cause Analysis of Product Quality in Injection Moulding
- arxiv url: http://arxiv.org/abs/2505.01445v1
- Date: Tue, 29 Apr 2025 16:58:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.112596
- Title: Explainable AI for Correct Root Cause Analysis of Product Quality in Injection Moulding
- Title(参考訳): 射出成形における製品品質解析のための説明可能なAI
- Authors: Muhammad Muaz, Sameed Sajid, Tobias Schulze, Chang Liu, Nils Klasen, Benny Drescher,
- Abstract要約: 本研究は, 複数入力マシン設定間の相互作用が, 中心となる複合設計に従って収集された実実験データに存在することを示す。
そして、モデルに依存しない説明可能なAI手法を初めて比較し、異なる説明可能性の手法が射出成形における異なる特徴影響分析をもたらすことを示す。
- 参考スコア(独自算出の注目度): 2.3992545463376618
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: If a product deviates from its desired properties in the injection moulding process, its root cause analysis can be aided by models that relate the input machine settings with the output quality characteristics. The machine learning models tested in the quality prediction are mostly black boxes; therefore, no direct explanation of their prognosis is given, which restricts their applicability in the quality control. The previously attempted explainability methods are either restricted to tree-based algorithms only or do not emphasize on the fact that some explainability methods can lead to wrong root cause identification of a product's deviation from its desired properties. This study first shows that the interactions among the multiple input machine settings do exist in real experimental data collected as per a central composite design. Then, the model-agnostic explainable AI methods are compared for the first time to show that different explainability methods indeed lead to different feature impact analysis in injection moulding. Moreover, it is shown that the better feature attribution translates to the correct cause identification and actionable insights for the injection moulding process. Being model agnostic, explanations on both random forest and multilayer perceptron are performed for the cause analysis, as both models have the mean absolute percentage error of less than 0.05% on the experimental dataset.
- Abstract(参考訳): 射出成形プロセスにおいて製品が所望の特性から逸脱した場合、その根本原因分析は入力機設定と出力品質特性を関連付けるモデルによって支援される。
品質予測でテストされた機械学習モデルは、ほとんどがブラックボックスであるため、それらの予後に関する直接的な説明は与えられず、品質管理の適用性を制限する。
これまで試みられた説明可能性法は、木に基づくアルゴリズムにのみ制限されるか、あるいはいくつかの説明可能性法が、製品が望ましい性質から逸脱していることの間違った根本原因を特定できるという事実を強調しない。
本研究は, 複数入力マシン設定間の相互作用が, 中心となる複合設計に従って収集された実実験データに存在することを示す。
そして、モデルに依存しない説明可能なAI手法を初めて比較し、異なる説明可能性の手法が射出成形における異なる特徴影響分析をもたらすことを示す。
さらに, より優れた特徴帰属は, 射出成形プロセスにおける正しい原因同定と動作可能な洞察に変換されることが示されている。
モデル非依存であるため, 原因分析にはランダムフォレストと多層パーセプトロンの両方について説明を行う。
関連論文リスト
- F-Fidelity: A Robust Framework for Faithfulness Evaluation of Explainable AI [15.314388210699443]
XAI技術は、ディープラーニングモデルから意味のある洞察を抽出することができる。
適切に評価する方法は、未解決の問題である。
我々は,XAIのための堅牢な評価フレームワークとして,F-Fidelity(F-Fidelity)を提案する。
論文 参考訳(メタデータ) (2024-10-03T20:23:06Z) - Explainability of Machine Learning Models under Missing Data [3.0485328005356136]
データ不足は、モデルのパフォーマンスと説明容易性を著しく損なうおそれのある問題である。
本稿では、欠落データ分野の発展を要約し、SHAPに対する様々な計算方法の効果について考察する。
論文 参考訳(メタデータ) (2024-06-29T11:31:09Z) - PhilaeX: Explaining the Failure and Success of AI Models in Malware
Detection [6.264663726458324]
サイバーセキュリティにおける意思決定を支援するために使用されるAIモデルの予測に対する説明は、非常に重要である。
既存のAIモデルには、ほとんどのシナリオでパフォーマンスが強いにもかかわらず、予測結果に関する説明を提供する能力がない。
我々は、AIモデルの予測の完全な説明を形成するために、最適化された機能のサブセットを識別する手段を提供する、PhillaeXと呼ばれる新しい説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2022-07-02T05:06:24Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Variance Minimization in the Wasserstein Space for Invariant Causal
Prediction [72.13445677280792]
そこで本研究では,ICPで行ったアプローチを,予測器数で線形にスケールする一連の非パラメトリックテストとして再検討する。
これらのテストはそれぞれ、最適輸送理論の道具から導かれる新しい損失関数の最小化に依存している。
我々は,本手法が同定可能な直接原因の集合を回復できるという軽微な仮定の下で証明し,他のベンチマーク因果探索アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2021-10-13T22:30:47Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。