論文の概要: Explaining Deep Neural Networks for Bearing Fault Detection with
Vibration Concepts
- arxiv url: http://arxiv.org/abs/2310.11450v1
- Date: Tue, 17 Oct 2023 17:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 14:39:07.028933
- Title: Explaining Deep Neural Networks for Bearing Fault Detection with
Vibration Concepts
- Title(参考訳): 振動概念を用いたベアリング故障検出のためのディープニューラルネットワーク
- Authors: Thomas Decker, Michael Lebacher and Volker Tresp
- Abstract要約: 本稿では,振動信号に基づいて学習した深部ニューラルネットワークを用いた断層検出の文脈における概念に基づく説明手法の活用方法について検討する。
振動概念の観点で不透明なモデルを説明することは、人間の理解しやすく直感的な内部動作の洞察を可能にすることを示す。
- 参考スコア(独自算出の注目度): 23.027545485830032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept-based explanation methods, such as Concept Activation Vectors, are
potent means to quantify how abstract or high-level characteristics of input
data influence the predictions of complex deep neural networks. However,
applying them to industrial prediction problems is challenging as it is not
immediately clear how to define and access appropriate concepts for individual
use cases and specific data types. In this work, we investigate how to leverage
established concept-based explanation techniques in the context of bearing
fault detection with deep neural networks trained on vibration signals. Since
bearings are prevalent in almost every rotating equipment, ensuring the
reliability of intransparent fault detection models is crucial to prevent
costly repairs and downtimes of industrial machinery. Our evaluations
demonstrate that explaining opaque models in terms of vibration concepts
enables human-comprehensible and intuitive insights about their inner workings,
but the underlying assumptions need to be carefully validated first.
- Abstract(参考訳): 概念に基づく説明手法、例えば概念活性化ベクトルは、入力データの抽象的あるいは高レベルな特性が複雑なディープニューラルネットワークの予測にどのように影響するかを定量化する強力な手段である。
しかし、個々のユースケースや特定のデータタイプに対して適切な概念を定義し、アクセスする方法がすぐには明確でないため、産業的な予測問題に適用することは困難である。
本研究では, 振動信号を用いた深層ニューラルネットワークによる故障検出の文脈において, 確立された概念に基づく説明手法をどのように活用するかを検討する。
ほぼすべての回転装置でベアリングが普及しているため、不透明な故障検出モデルの信頼性を確保することは、産業機械のコストのかかる修理やダウンタイムを防止するために重要である。
振動概念の観点から不透明なモデルを説明することで,人間の内的動作に関する理解や直感的な洞察が得られ,その基礎となる仮定を慎重に検証する必要がある。
関連論文リスト
- Explaining Deep Neural Networks by Leveraging Intrinsic Methods [0.9790236766474201]
この論文はeXplainable AIの分野に貢献し、ディープニューラルネットワークの解釈可能性の向上に重点を置いている。
中心となる貢献は、これらのネットワークをより解釈しやすくすることを目的とした新しい技術の導入である。
第2に、この研究は、訓練された深層ニューラルネットワーク内のニューロンに関する新しい研究を掘り下げ、その活性化値に関連する見過ごされた現象に光を当てた。
論文 参考訳(メタデータ) (2024-07-17T01:20:17Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Neuro-symbolic model for cantilever beams damage detection [0.0]
本稿では,新しい認知アーキテクチャに基づくカンチレバービームの損傷検出のためのニューロシンボリックモデルを提案する。
ハイブリッド識別モデルはLogic Convolutional Neural Regressorという名称で導入されている。
論文 参考訳(メタデータ) (2023-05-04T13:12:39Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Understanding and Enhancing Robustness of Concept-based Models [41.20004311158688]
対向摂動に対する概念ベースモデルの堅牢性について検討する。
本稿では、まず、概念ベースモデルのセキュリティ脆弱性を評価するために、さまざまな悪意ある攻撃を提案し、分析する。
そこで我々は,これらのシステムのロバスト性を高めるための,汎用的対人訓練に基づく防御機構を提案する。
論文 参考訳(メタデータ) (2022-11-29T10:43:51Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Formalizing Generalization and Robustness of Neural Networks to Weight
Perturbations [58.731070632586594]
非負のモノトーンアクティベーション機能を備えたフィードフォワードニューラルネットワークの重量変動に対する最初の形式解析を提供します。
また,重みの摂動に対して一般化し頑健なニューラルネットワークを訓練するための新しい理論駆動損失関数を設計した。
論文 参考訳(メタデータ) (2021-03-03T06:17:03Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Unifying Model Explainability and Robustness via Machine-Checkable
Concepts [33.88198813484126]
本稿では,機械チェック可能な概念を用いた頑健性評価フレームワークを提案する。
本フレームワークは, 予測堅牢性を評価するために, 説明をベースとした多種多様な概念を定義し, テスト時の説明整合性チェックを実施している。
実世界のデータセットと人間のサーベイの実験は、我々のフレームワークが予測の堅牢性を大幅に向上できることを示している。
論文 参考訳(メタデータ) (2020-07-01T05:21:16Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。