論文の概要: SHapley Estimated Explanation (SHEP): A Fast Post-Hoc Attribution Method for Interpreting Intelligent Fault Diagnosis
- arxiv url: http://arxiv.org/abs/2504.03773v1
- Date: Thu, 03 Apr 2025 07:56:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:14:16.195528
- Title: SHapley Estimated Explanation (SHEP): A Fast Post-Hoc Attribution Method for Interpreting Intelligent Fault Diagnosis
- Title(参考訳): SHEP(SHapley Estimated Explanation) : インテリジェント障害診断の高速解析法
- Authors: Qian Chen, Xingjian Dong, Zhike Peng, Guang Meng,
- Abstract要約: ポストホック解釈性は、モデル構造を変更することなくネットワークの柔軟性とスケーラビリティを維持する能力によって人気を集めている。
近年、ドメイン変換とSHAPを組み合わせることで、説明をより情報的なドメインに拡張することで、解釈可能性が改善されている。
本稿では、SHAPの計算コストに対処するため、パッチワイド属性とSHEP(SHapley Estimated Explanation)を提案する。
- 参考スコア(独自算出の注目度): 3.0746433102878266
- License:
- Abstract: Despite significant progress in intelligent fault diagnosis (IFD), the lack of interpretability remains a critical barrier to practical industrial applications, driving the growth of interpretability research in IFD. Post-hoc interpretability has gained popularity due to its ability to preserve network flexibility and scalability without modifying model structures. However, these methods often yield suboptimal time-domain explanations. Recently, combining domain transform with SHAP has improved interpretability by extending explanations to more informative domains. Nonetheless, the computational expense of SHAP, exacerbated by increased dimensions from domain transforms, remains a major challenge. To address this, we propose patch-wise attribution and SHapley Estimated Explanation (SHEP). Patch-wise attribution reduces feature dimensions at the cost of explanation granularity, while SHEP simplifies subset enumeration to approximate SHAP, reducing complexity from exponential to linear. Together, these methods significantly enhance SHAP's computational efficiency, providing feasibility for real-time interpretation in monitoring tasks. Extensive experiments confirm SHEP's efficiency, interpretability, and reliability in approximating SHAP. Additionally, with open-source code, SHEP has the potential to serve as a benchmark for post-hoc interpretability in IFD. The code is available on https://github.com/ChenQian0618/SHEP.
- Abstract(参考訳): インテリジェンス断層診断(IFD)の大幅な進歩にもかかわらず、解釈可能性の欠如は実際的な産業アプリケーションにとって重要な障壁であり、IFDにおける解釈可能性研究の進展を促している。
ポストホック解釈性は、モデル構造を変更することなくネットワークの柔軟性とスケーラビリティを維持する能力によって人気を集めている。
しかし、これらの手法はしばしば最適時間領域の説明をもたらす。
近年、ドメイン変換とSHAPを組み合わせることで、説明をより情報的なドメインに拡張することで、解釈可能性が改善されている。
それでも、領域変換による次元の増大によって悪化したSHAPの計算コストは、依然として大きな課題である。
そこで我々はパッチワイド属性とSHEP(SHapley Estimated Explanation)を提案する。
パッチワイド属性は、説明粒度のコストで特徴次元を減少させる一方、SHEPはサブセット列挙を単純化してSHAPを近似し、指数関数から線形への複雑性を減少させる。
これらの手法は、SHAPの計算効率を大幅に向上させ、モニタリングタスクにおけるリアルタイム解釈の実現を可能にした。
SHEPの効率性,解釈可能性,信頼性を実験により確認した。
さらに、オープンソースのコードでは、SHEPはIFDのポストホック解釈可能性のベンチマークとして機能する可能性がある。
コードはhttps://github.com/ChenQian0618/SHEPで公開されている。
関連論文リスト
- CS-SHAP: Extending SHAP to Cyclic-Spectral Domain for Better Interpretability of Intelligent Fault Diagnosis [2.704636710764296]
ニューラルネットワークを用いた知的故障診断(IFD)のための新しいポストホックな説明形式を開発した。
より明確で正確な説明を提供するために、Shapley加法的説明(SHAP)を巡回スペクトル(CS)領域に拡張する。
オープンソースコードと優れた解釈可能性により、CS-SHAPは広く採用され、IFDのポストホック解釈性ベンチマークとなる可能性がある。
論文 参考訳(メタデータ) (2025-02-10T13:00:49Z) - datadriftR: An R Package for Concept Drift Detection in Predictive Models [0.0]
本稿では,コンセプトドリフトを検出するためのRパッケージであるドリフト器を紹介する。
ドリフト検出とドリフトの背後にある原因の理解を深めることのできるプロファイルドリフト検出(PDD)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-15T20:59:49Z) - Scalable and Effective Negative Sample Generation for Hyperedge Prediction [55.9298019975967]
ハイパーエッジ予測は、Webベースのアプリケーションにおける複雑なマルチエンタリティ相互作用を理解するために不可欠である。
従来の手法では、正と負のインスタンスの不均衡により、高品質な負のサンプルを生成するのが困難であることが多い。
本稿では,これらの課題に対処するために拡散モデルを利用するハイパーエッジ予測(SEHP)フレームワークのスケーラブルで効果的な負のサンプル生成について述べる。
論文 参考訳(メタデータ) (2024-11-19T09:16:25Z) - Distributed Stochastic Gradient Descent with Staleness: A Stochastic Delay Differential Equation Based Framework [56.82432591933544]
分散勾配降下(SGD)は、計算リソースのスケーリング、トレーニング時間の短縮、マシンラーニングにおけるユーザのプライバシ保護の支援などにより、近年注目されている。
本稿では,遅延微分方程式(SDDE)と勾配到着の近似に基づく分散SGDの実行時間と安定化について述べる。
活性化作業員の増加は, 安定度による分散SGDを必ずしも加速させるものではないことが興味深い。
論文 参考訳(メタデータ) (2024-06-17T02:56:55Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Understanding Self-Supervised Learning of Speech Representation via
Invariance and Redundancy Reduction [0.45060992929802207]
自己教師付き学習(SSL)は、ラベルのないデータから柔軟な音声表現を学習するための有望なパラダイムとして登場した。
本研究は,人間の知覚における冗長性低下の理論に触発されたSSL技術であるBarlow Twins(BT)を実証分析した。
論文 参考訳(メタデータ) (2023-09-07T10:23:59Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Feature Perturbation Augmentation for Reliable Evaluation of Importance
Estimators in Neural Networks [5.439020425819001]
ポストホック解釈可能性法は、ディープニューラルネットワークの内部動作をより解釈可能にしようとする。
最も一般的な評価フレームワークの1つは、解釈可能性メソッドによって重要とみなされる機能を摂動させることである。
モデルトレーニング中に摂動画像を生成し,付加する特徴摂動増強(FPA)を提案する。
論文 参考訳(メタデータ) (2023-03-02T19:05:46Z) - An Extension of LIME with Improvement of Interpretability and Fidelity [4.874445626403491]
特徴サンプリングと近似(LEDSNA)を用いた局所的説明
本稿では,特徴サンプリングと近似(LEDSNA)を用いた局所記述(Local Explanation)と呼ばれる,高解釈性と高忠実な局所説明手法を提案する。
論文 参考訳(メタデータ) (2020-04-26T02:54:27Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。