論文の概要: Does Your Model Think Like an Engineer? Explainable AI for Bearing Fault
Detection with Deep Learning
- arxiv url: http://arxiv.org/abs/2310.12967v1
- Date: Thu, 19 Oct 2023 17:58:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 13:46:47.994313
- Title: Does Your Model Think Like an Engineer? Explainable AI for Bearing Fault
Detection with Deep Learning
- Title(参考訳): あなたのモデルはエンジニアのように見えるか?
深層学習による故障検出のための説明可能なAI
- Authors: Thomas Decker, Michael Lebacher, and Volker Tresp
- Abstract要約: 本研究では,振動信号から転がり要素軸受の欠陥を検知する作業に焦点をあてる。
本稿では,モデルの基本となる論理が専門家の推論とどの程度うまく対応しているかを評価するための,新しい,ドメイン固有の属性フレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.488966890562004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning has already been successfully applied to analyze industrial
sensor data in a variety of relevant use cases. However, the opaque nature of
many well-performing methods poses a major obstacle for real-world deployment.
Explainable AI (XAI) and especially feature attribution techniques promise to
enable insights about how such models form their decision. But the plain
application of such methods often fails to provide truly informative and
problem-specific insights to domain experts. In this work, we focus on the
specific task of detecting faults in rolling element bearings from vibration
signals. We propose a novel and domain-specific feature attribution framework
that allows us to evaluate how well the underlying logic of a model corresponds
with expert reasoning. Utilizing the framework we are able to validate the
trustworthiness and to successfully anticipate the generalization ability of
different well-performing deep learning models. Our methodology demonstrates
how signal processing tools can effectively be used to enhance Explainable AI
techniques and acts as a template for similar problems.
- Abstract(参考訳): Deep Learningはすでに、さまざまなユースケースにおける産業センサデータ分析に成功している。
しかし、多くのうまく機能するメソッドの不透明な性質は、現実のデプロイメントにとって大きな障害となる。
説明可能なAI(XAI)、特に特徴属性技術は、そのようなモデルがどのように意思決定を形成するかについての洞察を可能にする。
しかし、そのような方法の平易な適用は、ドメインエキスパートに真に有益で問題に固有の洞察を提供することに失敗します。
本研究では,振動信号から転がり要素軸受の欠陥を検出することに焦点を当てた。
我々は、モデルの基盤となるロジックがいかに専門家の推論と合致するかを評価することができる、新規でドメイン固有の機能帰属フレームワークを提案する。
フレームワークを利用することで、信頼性を検証し、さまざまな優れたディープラーニングモデルの一般化能力を期待できます。
提案手法は,信号処理ツールを用いて説明可能なAI技術を強化し,同様の問題のテンプレートとして機能することを示す。
関連論文リスト
- Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - On-Robot Bayesian Reinforcement Learning for POMDPs [16.667924736270415]
本稿では,ロボット工学におけるベイズ強化学習を,物理システムのための特殊フレームワークの提案により進める。
この知識を因子表現で捉え、後続の分解を同様の形で示し、最終的にベイズ的枠組みでモデルを定式化する。
次に,モンテカルロ木探索と粒子フィルタリングに基づくサンプルベースオンライン解法を提案する。
論文 参考訳(メタデータ) (2023-07-22T01:16:29Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - A Practical Tutorial on Explainable AI Techniques [5.671062637797752]
このチュートリアルは、コンピュータサイエンスのバックグラウンドを持つすべての読者にとって、手書きの教科書となることを意図している。
機械学習モデルの直感的な洞察を得ることを目標としている。
論文 参考訳(メタデータ) (2021-11-13T17:47:31Z) - Can Explainable AI Explain Unfairness? A Framework for Evaluating
Explainable AI [3.4823710414760516]
モデル行動の翻訳におけるXAIツールの強みにもかかわらず、批判はXAIツールがフェアウォッシングツールとしての影響を懸念している。
私たちは、バイアスと公平性の問題を検知し、対処する能力に関して、説明可能なAIツールを評価するためのフレームワークを作成しました。
モデルの振る舞いを単純化し、説明する能力があるにもかかわらず、多くの著名なXAIツールはバイアスを検出するのに重要な機能を欠いていることがわかった。
論文 参考訳(メタデータ) (2021-06-14T15:14:03Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。