論文の概要: Making the black-box brighter: interpreting machine learning algorithm
for forecasting drilling accidents
- arxiv url: http://arxiv.org/abs/2209.02256v1
- Date: Tue, 6 Sep 2022 07:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:37:56.838703
- Title: Making the black-box brighter: interpreting machine learning algorithm
for forecasting drilling accidents
- Title(参考訳): ブラックボックスをより明るくする: 掘削事故予測のための機械学習アルゴリズムの解釈
- Authors: Ekaterina Gurina, Nikita Klyuchnikov, Ksenia Antipova, Dmitry Koroteev
- Abstract要約: 石油・ガス井掘削時の事故・異常を予測するためのブラックボックス警報システムの解釈手法を提案する。
解釈手法は,事故予測モデルの局所的挙動を掘削技術者に説明することを目的としている。
- 参考スコア(独自算出の注目度): 1.105297743931016
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present an approach for interpreting a black-box alarming system for
forecasting accidents and anomalies during the drilling of oil and gas wells.
The interpretation methodology aims to explain the local behavior of the
accident predictive model to drilling engineers. The explanatory model uses
Shapley additive explanations analysis of features, obtained through
Bag-of-features representation of telemetry logs used during the drilling
accident forecasting phase. Validation shows that the explanatory model has 15%
precision at 70% recall, and overcomes the metric values of a random baseline
and multi-head attention neural network. These results justify that the
developed explanatory model is better aligned with explanations of drilling
engineers, than the state-of-the-art method. The joint performance of
explanatory and Bag-of-features models allows drilling engineers to understand
the logic behind the system decisions at the particular moment, pay attention
to highlighted telemetry regions, and correspondingly, increase the trust level
in the accident forecasting alarms.
- Abstract(参考訳): 本稿では,油井・ガス井掘削時の事故・異常予測のためのブラックボックス警報システムの解釈手法を提案する。
解釈手法は,事故予測モデルの局所的挙動を掘削技術者に説明することを目的としている。
説明モデルは,掘削事故予報段階で使用されるテレメトリログのBag-of-features表現を通じて得られた特徴のShapley付加的説明解析を用いている。
検証により、説明モデルは70%のリコールで15%の精度を持ち、ランダムベースラインおよびマルチヘッドアテンションニューラルネットワークのメトリック値を克服していることが示された。
これらの結果は,最先端の手法よりも,掘削技術者の説明と整合性が高いことを示す。
説明的モデルとバグオブファクトモデルの合同性能により、掘削技術者は特定の時点におけるシステム決定の背後にあるロジックを理解し、強調されたテレメトリ領域に注意を払って、事故予知アラームの信頼レベルを高めることができる。
関連論文リスト
- Explain, Adapt and Retrain: How to improve the accuracy of a PPM
classifier through different explanation styles [4.6281736192809575]
最近の論文では、結果指向の予測に予測プロセスモニタリングモデルがなぜ間違った予測を提供するのかを説明するための新しいアプローチが紹介されている。
半自動的な方法でミスを犯す予測者を誘導する最も一般的な特徴を特定するために、説明を利用する方法を示す。
論文 参考訳(メタデータ) (2023-03-27T06:37:55Z) - TsSHAP: Robust model agnostic feature-based explainability for time
series forecasting [6.004928390125367]
我々は,ブラックボックス予測モデルの予測を説明できる機能ベースの説明可能性アルゴリズムTsSHAPを提案する。
我々は、時系列予測の文脈において、局所的、半局所的、グローバルな説明の概念を定式化する。
論文 参考訳(メタデータ) (2023-03-22T05:14:36Z) - Explainable Machine Learning for Hydrocarbon Prospect Risking [14.221460375400692]
我々は、LIMEがドメイン知識に整合した意思決定プロセスを明らかにすることによって、モデルの決定に対する信頼をいかに引き起こすかを示す。
データやトレーニングデータセットの異常なパターンによる誤予測をデバッグする可能性がある。
論文 参考訳(メタデータ) (2022-12-15T00:38:14Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - A model for traffic incident prediction using emergency braking data [77.34726150561087]
道路交通事故予測におけるデータ不足の根本的な課題を、事故の代わりに緊急ブレーキイベントをトレーニングすることで解決します。
メルセデス・ベンツ車両の緊急ブレーキデータに基づくドイツにおける交通事故予測モデルを実装したプロトタイプを提案する。
論文 参考訳(メタデータ) (2021-02-12T18:17:12Z) - Forethought and Hindsight in Credit Assignment [62.05690959741223]
我々は、前向きモデルや後向きモデルによる後向き操作による予測として使われる計画の利益と特異性を理解するために活動する。
本稿では,予測を(再)評価すべき状態の選択に主眼を置いて,計画におけるモデルの利用について検討する。
論文 参考訳(メタデータ) (2020-10-26T16:00:47Z) - Understanding the Prediction Mechanism of Sentiments by XAI
Visualization [1.52292571922932]
説明可能なAI(XAI)手法を用いて、オンラインホテルレビューから抽出された感情の効果を可視化すること。
研究1では、抽出した感情を特徴として、5つの機械学習アルゴリズムによるレビュー評価を予測した。
調査2では,無作為林モデルを特徴的重要度で分析し,最も予測的な特徴として,喜び,嫌悪,肯定的,否定的な感情を明らかにした。
論文 参考訳(メタデータ) (2020-03-03T10:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。