論文の概要: An interpretable deep learning method for bearing fault diagnosis
- arxiv url: http://arxiv.org/abs/2308.10292v1
- Date: Sun, 20 Aug 2023 15:22:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 16:16:31.063918
- Title: An interpretable deep learning method for bearing fault diagnosis
- Title(参考訳): 障害診断のための解釈可能な深層学習法
- Authors: Hao Lu, Austin M. Bray, Chao Hu, Andrew T. Zimmerman, Hongyi Xu
- Abstract要約: 我々は、グラディエント重み付きクラス活性化マッピング(Grad-CAM)可視化を用いた畳み込みニューラルネットワーク(CNN)を用いて、ベアリング障害を分類するための解釈可能なディープラーニング(DL)手法を構築した。
モデル評価過程において,提案手法は特徴量の類似性に応じて,健康図書館から予測ベースサンプルを検索する。
- 参考スコア(独自算出の注目度): 12.069344716912843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning (DL) has gained popularity in recent years as an effective tool
for classifying the current health and predicting the future of industrial
equipment. However, most DL models have black-box components with an underlying
structure that is too complex to be interpreted and explained to human users.
This presents significant challenges when deploying these models for
safety-critical maintenance tasks, where non-technical personnel often need to
have complete trust in the recommendations these models give. To address these
challenges, we utilize a convolutional neural network (CNN) with
Gradient-weighted Class Activation Mapping (Grad-CAM) activation map
visualizations to form an interpretable DL method for classifying bearing
faults. After the model training process, we apply Grad-CAM to identify a
training sample's feature importance and to form a library of diagnosis
knowledge (or health library) containing training samples with annotated
feature maps. During the model evaluation process, the proposed approach
retrieves prediction basis samples from the health library according to the
similarity of the feature importance. The proposed method can be easily applied
to any CNN model without modifying the model architecture, and our experimental
results show that this method can select prediction basis samples that are
intuitively and physically meaningful, improving the model's trustworthiness
for human users.
- Abstract(参考訳): 近年, 深層学習(DL)は, 現在の健康の分類や産業機器の将来予測に有効なツールとして人気を集めている。
しかし、ほとんどのdlモデルはブラックボックスコンポーネントを持ち、その基盤となる構造は複雑すぎて、解釈や説明ができない。
これは、安全クリティカルなメンテナンスタスクのためにこれらのモデルをデプロイする場合、非技術者がこれらのモデルが提供する推奨を完全に信頼する必要がある場合に、重大な課題をもたらす。
これらの課題に対処するために,グラデーション重み付きクラスアクティベーションマッピング(grad-cam)を用いた畳み込みニューラルネットワーク(cnn)を用いて,ベアリング障害を分類するための解釈可能なdl法を構築する。
モデルトレーニングの終了後,Grad-CAMを用いて,トレーニングサンプルの特徴を識別し,注釈付き特徴マップを用いたトレーニングサンプルを含む診断知識(あるいは健康ライブラリ)のライブラリを形成する。
モデル評価過程において,提案手法は,特徴量の類似性に応じて,健康図書館から予測ベースサンプルを検索する。
提案手法はモデルアーキテクチャを変更することなく,任意のCNNモデルに容易に適用可能であり,本手法は直感的かつ物理的に意味のある予測ベースサンプルを選択できることを示す。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - A Modified PINN Approach for Identifiable Compartmental Models in
Epidemiology with Applications to COVID-19 [0.0]
我々は,Covid-19の米国開発における「物理情報ニューラルネットワーク」のバリエーションを用いたアクセス可能なデータ分析へのアプローチを提案する。
モデルパラメータの識別可能性の側面も評価し、ウェーブレット変換を用いて利用可能なデータを識別する方法も評価する。
論文 参考訳(メタデータ) (2022-08-01T23:09:32Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Improving a neural network model by explanation-guided training for
glioma classification based on MRI data [0.0]
解釈可能性の手法は、ディープラーニングモデルの意思決定プロセスに関する洞察を得るための一般的な方法となっている。
本稿では,LRP(Layer-wise Relevance propagation)技術を用いた説明誘導学習手法を提案する。
我々は,低次・高次グリオーマ分類問題に対する畳み込みニューラルネットワーク(CNN)モデルについて実験的に検証した。
論文 参考訳(メタデータ) (2021-07-05T13:27:28Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。