論文の概要: Making the black-box brighter: interpreting machine learning algorithm
for forecasting drilling accidents
- arxiv url: http://arxiv.org/abs/2209.02256v1
- Date: Tue, 6 Sep 2022 07:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:37:56.838703
- Title: Making the black-box brighter: interpreting machine learning algorithm
for forecasting drilling accidents
- Title(参考訳): ブラックボックスをより明るくする: 掘削事故予測のための機械学習アルゴリズムの解釈
- Authors: Ekaterina Gurina, Nikita Klyuchnikov, Ksenia Antipova, Dmitry Koroteev
- Abstract要約: 石油・ガス井掘削時の事故・異常を予測するためのブラックボックス警報システムの解釈手法を提案する。
解釈手法は,事故予測モデルの局所的挙動を掘削技術者に説明することを目的としている。
- 参考スコア(独自算出の注目度): 1.105297743931016
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present an approach for interpreting a black-box alarming system for
forecasting accidents and anomalies during the drilling of oil and gas wells.
The interpretation methodology aims to explain the local behavior of the
accident predictive model to drilling engineers. The explanatory model uses
Shapley additive explanations analysis of features, obtained through
Bag-of-features representation of telemetry logs used during the drilling
accident forecasting phase. Validation shows that the explanatory model has 15%
precision at 70% recall, and overcomes the metric values of a random baseline
and multi-head attention neural network. These results justify that the
developed explanatory model is better aligned with explanations of drilling
engineers, than the state-of-the-art method. The joint performance of
explanatory and Bag-of-features models allows drilling engineers to understand
the logic behind the system decisions at the particular moment, pay attention
to highlighted telemetry regions, and correspondingly, increase the trust level
in the accident forecasting alarms.
- Abstract(参考訳): 本稿では,油井・ガス井掘削時の事故・異常予測のためのブラックボックス警報システムの解釈手法を提案する。
解釈手法は,事故予測モデルの局所的挙動を掘削技術者に説明することを目的としている。
説明モデルは,掘削事故予報段階で使用されるテレメトリログのBag-of-features表現を通じて得られた特徴のShapley付加的説明解析を用いている。
検証により、説明モデルは70%のリコールで15%の精度を持ち、ランダムベースラインおよびマルチヘッドアテンションニューラルネットワークのメトリック値を克服していることが示された。
これらの結果は,最先端の手法よりも,掘削技術者の説明と整合性が高いことを示す。
説明的モデルとバグオブファクトモデルの合同性能により、掘削技術者は特定の時点におけるシステム決定の背後にあるロジックを理解し、強調されたテレメトリ領域に注意を払って、事故予知アラームの信頼レベルを高めることができる。
関連論文リスト
- Operational range bounding of spectroscopy models with anomaly detection [0.0]
孤立林は、予測モデルが失敗する可能性のあるコンテキストを効果的に識別する。
セカンダリフォレストモデルが予測モデルの説明可能性 SHAP 値の予測を行うと、最高のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2024-08-05T15:59:36Z) - Counterfactual Explanations for Deep Learning-Based Traffic Forecasting [42.31238891397725]
この研究は、説明可能なAIアプローチ、反実的説明を活用し、ディープラーニングベースのトラフィック予測モデルの説明可能性とユーザビリティを高めることを目的としている。
この研究は、まず、過去の交通データと文脈変数に基づいて、交通速度を予測するディープラーニングモデルを実装する。
次に、これらの入力変数の変化が予測結果にどのように影響するかを照らすために、対実的な説明が使用される。
論文 参考訳(メタデータ) (2024-05-01T11:26:31Z) - Explainable AI models for predicting liquefaction-induced lateral spreading [1.6221957454728797]
機械学習は横方向の拡散予測モデルを改善することができる。
機械学習モデルの“ブラックボックス”の性質は、重要な意思決定における採用を妨げる可能性がある。
この研究は、信頼性と情報的意思決定のための説明可能な機械学習の価値を強調している。
論文 参考訳(メタデータ) (2024-04-24T16:25:52Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - A model for traffic incident prediction using emergency braking data [77.34726150561087]
道路交通事故予測におけるデータ不足の根本的な課題を、事故の代わりに緊急ブレーキイベントをトレーニングすることで解決します。
メルセデス・ベンツ車両の緊急ブレーキデータに基づくドイツにおける交通事故予測モデルを実装したプロトタイプを提案する。
論文 参考訳(メタデータ) (2021-02-12T18:17:12Z) - Forethought and Hindsight in Credit Assignment [62.05690959741223]
我々は、前向きモデルや後向きモデルによる後向き操作による予測として使われる計画の利益と特異性を理解するために活動する。
本稿では,予測を(再)評価すべき状態の選択に主眼を置いて,計画におけるモデルの利用について検討する。
論文 参考訳(メタデータ) (2020-10-26T16:00:47Z) - Understanding the Prediction Mechanism of Sentiments by XAI
Visualization [1.52292571922932]
説明可能なAI(XAI)手法を用いて、オンラインホテルレビューから抽出された感情の効果を可視化すること。
研究1では、抽出した感情を特徴として、5つの機械学習アルゴリズムによるレビュー評価を予測した。
調査2では,無作為林モデルを特徴的重要度で分析し,最も予測的な特徴として,喜び,嫌悪,肯定的,否定的な感情を明らかにした。
論文 参考訳(メタデータ) (2020-03-03T10:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。