論文の概要: Interpretable Predictive Maintenance for Hard Drives
- arxiv url: http://arxiv.org/abs/2102.06509v1
- Date: Fri, 12 Feb 2021 13:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 13:05:43.899981
- Title: Interpretable Predictive Maintenance for Hard Drives
- Title(参考訳): ハードドライブの解釈可能な予測保守
- Authors: Maxime Amram, Jack Dunn, Jeremy J. Toledano, Ying Daisy Zhuo
- Abstract要約: 最近の機械学習の解釈アルゴリズムを用いて,データセンタのハードドライブ障害を予測するタスクを検討する。
これらの手法が短期および長期のドライブの健康に関する有意義な洞察を提供しつつ、高い予測性能を維持できることを実証する。
- 参考スコア(独自算出の注目度): 0.5352699766206808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing machine learning approaches for data-driven predictive maintenance
are usually black boxes that claim high predictive power yet cannot be
understood by humans. This limits the ability of humans to use these models to
derive insights and understanding of the underlying failure mechanisms, and
also limits the degree of confidence that can be placed in such a system to
perform well on future data. We consider the task of predicting hard drive
failure in a data center using recent algorithms for interpretable machine
learning. We demonstrate that these methods provide meaningful insights about
short- and long-term drive health, while also maintaining high predictive
performance. We also show that these analyses still deliver useful insights
even when limited historical data is available, enabling their use in
situations where data collection has only recently begun.
- Abstract(参考訳): 既存のデータ駆動予測保守のための機械学習アプローチは、通常、高い予測能力を持つが人間には理解できないブラックボックスである。
これは、人間がこれらのモデルを使用して根本的な障害メカニズムの洞察と理解を導き出す能力を制限し、将来のデータにうまく機能するためにそのようなシステムに配置できる自信の程度を制限します。
最近の機械学習の解釈アルゴリズムを用いて,データセンタのハードドライブ障害を予測するタスクを検討する。
これらの手法が短期および長期のドライブの健康に関する有意義な洞察を提供しつつ、高い予測性能を維持できることを実証する。
また、これらの分析は、履歴データが限られている場合でも有用な洞察を与え、データ収集が最近始まったばかりである状況でも有効であることを示す。
関連論文リスト
- Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
コストのかかるラベルを必要とせずにエンドツーエンドの運転を改善するための,新しい自己管理手法を提案する。
フレームワーク textbfLAW は LAtent World モデルを用いて,予測エゴアクションと現在のフレームの潜在機能に基づいて,今後の潜在機能を予測する。
その結果,オープンループベンチマークとクローズループベンチマークの両方において,コストのかかるアノテーションを使わずに最先端のパフォーマンスを実現することができた。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - Explainable Predictive Maintenance: A Survey of Current Methods,
Challenges and Opportunities [2.913761513290171]
システムとハードウェアのメンテナは、アップキープの金銭的および時間的コストを削減できる。
このことは、予測システムに説明可能性と解釈可能性を導入するために、説明可能なAI(XAI)の分野を惹きつける。
XAIは、優れたシステムを維持しながら、ユーザの信頼を増幅できる予測保守の分野にメソッドをもたらす。
論文 参考訳(メタデータ) (2024-01-15T18:06:59Z) - Robust Machine Learning by Transforming and Augmenting Imperfect
Training Data [6.928276018602774]
この論文は、現代の機械学習のいくつかのデータ感度を探求する。
まず、トレーニングデータで測定された事前の人間の識別をMLが符号化するのを防ぐ方法について論じる。
次に、トレーニング中に予測忠実度を提供するが、デプロイ時に信頼性が低い突発的特徴を含むデータから学習する問題について論じる。
論文 参考訳(メタデータ) (2023-12-19T20:49:28Z) - Is Self-Supervised Pretraining Good for Extrapolation in Molecular
Property Prediction? [16.211138511816642]
物質科学において、一般に外挿と呼ばれる未観測値の予測は、特性予測にとって重要である。
実験により,モデルが絶対的特性値の正確な外挿を行えなかったにもかかわらず,自己教師型事前学習により,観測されていない特性値の相対的傾向を学習できることを実証的に明らかにする。
論文 参考訳(メタデータ) (2023-08-16T03:38:43Z) - Interpretable Machine Learning for Discovery: Statistical Challenges \&
Opportunities [1.2891210250935146]
我々は、解釈可能な機械学習の分野について議論し、レビューする。
解釈可能な機械学習を用いて行うことができる発見の種類について概説する。
我々は、これらの発見をデータ駆動方式でどのように検証するかという大きな課題に焦点をあてる。
論文 参考訳(メタデータ) (2023-08-02T23:57:31Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - A Safety Framework for Critical Systems Utilising Deep Neural Networks [13.763070043077633]
本稿では,ディープニューラルネットワークを利用したクリティカルシステムのための新しい安全引数フレームワークを提案する。
このアプローチは、例えば、ある要求をパスする将来の信頼性、あるいは必要な信頼性レベルへの信頼など、様々な形の予測を可能にする。
運用データを用いたベイズ解析と,近年のディープラーニングの検証と検証技術によって支援されている。
論文 参考訳(メタデータ) (2020-03-07T23:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。