論文の概要: Interpretable Summaries of Black Box Incident Triaging with Subgroup
Discovery
- arxiv url: http://arxiv.org/abs/2108.03013v1
- Date: Fri, 6 Aug 2021 09:10:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:39:50.598044
- Title: Interpretable Summaries of Black Box Incident Triaging with Subgroup
Discovery
- Title(参考訳): サブグループ発見を伴うブラックボックスインシデントトリージングの解釈可能な要約
- Authors: Youcef Remil, Anes Bendimerad, Marc Plantevit, C\'eline Robardet,
Mehdi Kaytoue
- Abstract要約: 我々は過去7年間に当社に報告された170万件のインシデントに基づく効率的なブラックボックスモデルを提案する。
XAIの最近の発展は、モデルに対するグローバルな説明を提供するのに役立ちます。
我々は,OCEの採用を効果的に進めるための予備的な結果を提示する。
- 参考スコア(独自算出の注目度): 2.1874189959020423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need of predictive maintenance comes with an increasing number of
incidents reported by monitoring systems and equipment/software users. In the
front line, on-call engineers (OCEs) have to quickly assess the degree of
severity of an incident and decide which service to contact for corrective
actions. To automate these decisions, several predictive models have been
proposed, but the most efficient models are opaque (say, black box), strongly
limiting their adoption. In this paper, we propose an efficient black box model
based on 170K incidents reported to our company over the last 7 years and
emphasize on the need of automating triage when incidents are massively
reported on thousands of servers running our product, an ERP. Recent
developments in eXplainable Artificial Intelligence (XAI) help in providing
global explanations to the model, but also, and most importantly, with local
explanations for each model prediction/outcome. Sadly, providing a human with
an explanation for each outcome is not conceivable when dealing with an
important number of daily predictions. To address this problem, we propose an
original data-mining method rooted in Subgroup Discovery, a pattern mining
technique with the natural ability to group objects that share similar
explanations of their black box predictions and provide a description for each
group. We evaluate this approach and present our preliminary results which give
us good hope towards an effective OCE's adoption. We believe that this approach
provides a new way to address the problem of model agnostic outcome
explanation.
- Abstract(参考訳): 予測メンテナンスの必要性は、監視システムや機器/ソフトウェアユーザによって報告されるインシデントの増加に伴う。
最前線では、オンコールエンジニア(OCE)は、インシデントの深刻度を迅速に評価し、どのサービスにコンタクトして修正行動を行うかを決定する必要がある。
これらの決定を自動化するために、いくつかの予測モデルが提案されているが、最も効率的なモデルは不透明である(例えばブラックボックス)。
本稿では,過去7年間に当社に報告された170kインシデントに基づく効率的なブラックボックスモデルを提案するとともに,当社製品を実行している数千台のサーバ上で,インシデントが大規模に報告された場合のトリアージの自動化の必要性を強調する。
最近の説明可能な人工知能(xai)の開発は、モデルにグローバルな説明を提供するだけでなく、モデル予測/アウトカム毎にローカルな説明を提供するのにも役立ちます。
残念なことに、毎日の重要な数の予測を扱う場合、各結果の説明を人間に提供することは不可能である。
この問題に対処するために,ブラックボックスの予測に類似した説明を共有したオブジェクトをグループ化する自然なパターンマイニング手法であるSubgroup Discoveryをルーツとする独自のデータマイニング手法を提案する。
我々は,この手法を評価し,OCEの効果的な採用を期待できる予備的な結果を提示する。
このアプローチは、モデルに依存しない結果説明の問題を解決する新しい方法を提供すると信じています。
関連論文リスト
- Plausible Extractive Rationalization through Semi-Supervised Entailment
Signal [33.35604728012685]
抽出された有理量の妥当性を最適化するために,半教師付きアプローチを採用する。
我々は、事前学習された自然言語推論(NLI)モデルを採用し、さらに教師付き論理の小さなセットに微調整する。
質問応答タスクにおける説明と回答のアライメント合意を強制することにより、真理ラベルにアクセスせずに性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-13T14:12:32Z) - Understanding the (Extra-)Ordinary: Validating Deep Model Decisions with
Prototypical Concept-based Explanations [14.86291010519662]
本稿では, 実例的(地域的)かつクラス的(グローバル的)な意思決定戦略をプロトタイプを通じて伝達する, ポストホックなコンセプトベースXAIフレームワークを提案する。
我々は,3つのデータセットにまたがるアウト・オブ・ディストリビューション・サンプル,突発的なモデル行動,データ品質問題同定におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-28T10:53:26Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Black-Box Anomaly Attribution [2.22999837458579]
ブラックボックスの機械学習モデルが真の観察から逸脱したとき、その逸脱の背後にある理由について何を言えるだろうか?
これは、ビジネスまたは産業用AIアプリケーションのエンドユーザがよく問う、基本的でユビキタスな質問である。
「新たな可能性に基づく帰属の枠組みを「可能性補償」と呼ぶ。」
論文 参考訳(メタデータ) (2023-05-29T01:42:32Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks
against White-Box Models [2.2559617939136505]
本稿では、一般的な説明可能なAIツールが提供する説明を活用するモデル抽出攻撃を提案する。
対象モデルに対するクエリは,最先端攻撃と比較して最大60倍少ない。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Causal Scene BERT: Improving object detection by searching for
challenging groups of data [125.40669814080047]
コンピュータビジョンアプリケーションは、物体検出のようなタスクのためにニューラルネットワークでパラメータ化された学習ベースの知覚モジュールに依存している。
これらのモジュールは、トレーニングプロセスに固有のバイアスのため、予想される誤差が低いが、データの非定型的なグループに対して高い誤差を持つことが多い。
本研究の主な貢献は,シミュレートされたシーンに対して因果的介入を行うことにより,前向きにそのようなグループを発見する擬似オートマチック手法である。
論文 参考訳(メタデータ) (2022-02-08T05:14:16Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Robust and Stable Black Box Explanations [31.05743211871823]
ブラックボックスモデルの堅牢で安定した説明を生成するための新しいフレームワークを提案する。
我々はこのアルゴリズムを線形モデルと決定セットの形式で説明するためにインスタンス化する。
論文 参考訳(メタデータ) (2020-11-12T02:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。