論文の概要: CS-SHAP: Extending SHAP to Cyclic-Spectral Domain for Better Interpretability of Intelligent Fault Diagnosis
- arxiv url: http://arxiv.org/abs/2502.06424v1
- Date: Mon, 10 Feb 2025 13:00:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:34:26.069013
- Title: CS-SHAP: Extending SHAP to Cyclic-Spectral Domain for Better Interpretability of Intelligent Fault Diagnosis
- Title(参考訳): CS-SHAP:サイクリックスペクトル領域へのSHAP拡張による知的故障診断の精度向上
- Authors: Qian Chen, Xingjian Dong, Kui Hu, Kangkang Chen, Zhike Peng, Guang Meng,
- Abstract要約: ニューラルネットワークを用いた知的故障診断(IFD)のための新しいポストホックな説明形式を開発した。
より明確で正確な説明を提供するために、Shapley加法的説明(SHAP)を巡回スペクトル(CS)領域に拡張する。
オープンソースコードと優れた解釈可能性により、CS-SHAPは広く採用され、IFDのポストホック解釈性ベンチマークとなる可能性がある。
- 参考スコア(独自算出の注目度): 2.704636710764296
- License:
- Abstract: Neural networks (NNs), with their powerful nonlinear mapping and end-to-end capabilities, are widely applied in mechanical intelligent fault diagnosis (IFD). However, as typical black-box models, they pose challenges in understanding their decision basis and logic, limiting their deployment in high-reliability scenarios. Hence, various methods have been proposed to enhance the interpretability of IFD. Among these, post-hoc approaches can provide explanations without changing model architecture, preserving its flexibility and scalability. However, existing post-hoc methods often suffer from limitations in explanation forms. They either require preprocessing that disrupts the end-to-end nature or overlook fault mechanisms, leading to suboptimal explanations. To address these issues, we derived the cyclic-spectral (CS) transform and proposed the CS-SHAP by extending Shapley additive explanations (SHAP) to the CS domain. CS-SHAP can evaluate contributions from both carrier and modulation frequencies, aligning more closely with fault mechanisms and delivering clearer and more accurate explanations. Three datasets are utilized to validate the superior interpretability of CS-SHAP, ensuring its correctness, reproducibility, and practical performance. With open-source code and outstanding interpretability, CS-SHAP has the potential to be widely adopted and become the post-hoc interpretability benchmark in IFD, even in other classification tasks. The code is available on https://github.com/ChenQian0618/CS-SHAP.
- Abstract(参考訳): ニューラルネットワーク(NN)は、強力な非線形マッピングとエンドツーエンド機能を備え、機械的インテリジェント障害診断(IFD)に広く応用されている。
しかしながら、一般的なブラックボックスモデルとして、意思決定ベースとロジックを理解し、信頼性の高いシナリオへのデプロイメントを制限することが課題となっている。
したがって、IFDの解釈可能性を高めるために様々な方法が提案されている。
これらのうち、ポストホックなアプローチは、モデルアーキテクチャを変更することなく、その柔軟性とスケーラビリティを保ちながら、説明を提供することができる。
しかし、既存のポストホック法は説明形式の制限に悩まされることが多い。
それらは、エンド・ツー・エンドの性質を乱す前処理を必要とするか、あるいは障害メカニズムを見落とし、最適以下の説明につながる。
これらの問題に対処するために、循環スペクトル変換法(CS)を導出し、Shapley加法的説明法(SHAP)をCSドメインに拡張することでCS-SHAPを提案した。
CS-SHAPは、キャリアと変調周波数の両方からのコントリビューションを評価し、障害メカニズムとより緊密に調整し、より明確で正確な説明を提供する。
3つのデータセットを用いてCS-SHAPの優れた解釈可能性を検証し、その正確性、再現性、実用性を保証する。
オープンソースコードと優れた解釈可能性により、CS-SHAPは広く採用され、他の分類タスクにおいてもIFDのポストホック解釈可能性ベンチマークとなる可能性がある。
コードはhttps://github.com/ChenQian0618/CS-SHAPで公開されている。
関連論文リスト
- Counterfactual Explanations with Probabilistic Guarantees on their Robustness to Model Change [4.239829789304117]
対実的説明(CFE)は、望ましいアウトプットを達成するために、機械学習モデルへの入力の調整方法をユーザに案内する。
この問題に対処する現在のメソッドは、しばしば特定のモデルや変更タイプのみをサポートする。
本稿では,任意のモデルや変更タイプに対して確率的保証を提供するCFEの生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:35:53Z) - Causal Concept Graph Models: Beyond Causal Opacity in Deep Learning [11.13665894783481]
因果不透明性(英: Causal opacity)とは、ディープニューラルネットワーク(DNN)モデルの決定の根底にある「隠れた」因果構造を理解することの難しさを指す。
この研究は、因果概念グラフモデル(Causal Concept Graph Models, Causal CGMs)を導入している。
実験の結果, (i) 因果不透明モデルの一般化性能に一致し, (ii) ループ内修正を誤予測中間推論ステップに適用し, (iii) 介入シナリオと反事実シナリオの分析を支援することができた。
論文 参考訳(メタデータ) (2024-05-26T10:15:20Z) - ECATS: Explainable-by-design concept-based anomaly detection for time series [0.5956301166481089]
本稿では,概念をSTL(Signal Temporal Logic)公式として表現する概念に基づくニューロシンボリックアーキテクチャであるECATSを提案する。
我々は,局所的な解釈可能性を確保しつつ,優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2024-05-17T08:12:53Z) - DSAF: A Dual-Stage Adaptive Framework for Numerical Weather Prediction
Downscaling [6.990912650604992]
局所的なNWPダウンスケーリングとバイアス補正に対処する新しい枠組みを提案する。
Dual-Stage Adaptive Framework (DSAF) はその設計に適応的な要素を組み込んで、進化する気象条件に対する柔軟な応答を保証する。
論文 参考訳(メタデータ) (2023-12-19T13:13:17Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - Causal Semantic Communication for Digital Twins: A Generalizable
Imitation Learning Approach [74.25870052841226]
デジタルツイン(DT)は、物理世界の仮想表現と通信(例えば6G)、コンピュータ、人工知能(AI)技術を活用して、多くの接続されたインテリジェンスサービスを実現する。
無線システムは、厳密な通信制約下での情報意思決定を容易にするために意味コミュニケーション(SC)のパラダイムを利用することができる。
DTベースの無線システムでは,因果意味通信(CSC)と呼ばれる新しいフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-25T00:15:00Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。