論文の概要: Interpretable Summaries of Black Box Incident Triaging with Subgroup
Discovery
- arxiv url: http://arxiv.org/abs/2108.03013v1
- Date: Fri, 6 Aug 2021 09:10:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:39:50.598044
- Title: Interpretable Summaries of Black Box Incident Triaging with Subgroup
Discovery
- Title(参考訳): サブグループ発見を伴うブラックボックスインシデントトリージングの解釈可能な要約
- Authors: Youcef Remil, Anes Bendimerad, Marc Plantevit, C\'eline Robardet,
Mehdi Kaytoue
- Abstract要約: 我々は過去7年間に当社に報告された170万件のインシデントに基づく効率的なブラックボックスモデルを提案する。
XAIの最近の発展は、モデルに対するグローバルな説明を提供するのに役立ちます。
我々は,OCEの採用を効果的に進めるための予備的な結果を提示する。
- 参考スコア(独自算出の注目度): 2.1874189959020423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need of predictive maintenance comes with an increasing number of
incidents reported by monitoring systems and equipment/software users. In the
front line, on-call engineers (OCEs) have to quickly assess the degree of
severity of an incident and decide which service to contact for corrective
actions. To automate these decisions, several predictive models have been
proposed, but the most efficient models are opaque (say, black box), strongly
limiting their adoption. In this paper, we propose an efficient black box model
based on 170K incidents reported to our company over the last 7 years and
emphasize on the need of automating triage when incidents are massively
reported on thousands of servers running our product, an ERP. Recent
developments in eXplainable Artificial Intelligence (XAI) help in providing
global explanations to the model, but also, and most importantly, with local
explanations for each model prediction/outcome. Sadly, providing a human with
an explanation for each outcome is not conceivable when dealing with an
important number of daily predictions. To address this problem, we propose an
original data-mining method rooted in Subgroup Discovery, a pattern mining
technique with the natural ability to group objects that share similar
explanations of their black box predictions and provide a description for each
group. We evaluate this approach and present our preliminary results which give
us good hope towards an effective OCE's adoption. We believe that this approach
provides a new way to address the problem of model agnostic outcome
explanation.
- Abstract(参考訳): 予測メンテナンスの必要性は、監視システムや機器/ソフトウェアユーザによって報告されるインシデントの増加に伴う。
最前線では、オンコールエンジニア(OCE)は、インシデントの深刻度を迅速に評価し、どのサービスにコンタクトして修正行動を行うかを決定する必要がある。
これらの決定を自動化するために、いくつかの予測モデルが提案されているが、最も効率的なモデルは不透明である(例えばブラックボックス)。
本稿では,過去7年間に当社に報告された170kインシデントに基づく効率的なブラックボックスモデルを提案するとともに,当社製品を実行している数千台のサーバ上で,インシデントが大規模に報告された場合のトリアージの自動化の必要性を強調する。
最近の説明可能な人工知能(xai)の開発は、モデルにグローバルな説明を提供するだけでなく、モデル予測/アウトカム毎にローカルな説明を提供するのにも役立ちます。
残念なことに、毎日の重要な数の予測を扱う場合、各結果の説明を人間に提供することは不可能である。
この問題に対処するために,ブラックボックスの予測に類似した説明を共有したオブジェクトをグループ化する自然なパターンマイニング手法であるSubgroup Discoveryをルーツとする独自のデータマイニング手法を提案する。
我々は,この手法を評価し,OCEの効果的な採用を期待できる予備的な結果を提示する。
このアプローチは、モデルに依存しない結果説明の問題を解決する新しい方法を提供すると信じています。
関連論文リスト
- Learning Model Agnostic Explanations via Constraint Programming [8.257194221102225]
解釈可能な機械学習は、不透明な分類器による予測を人間に理解可能な言葉で説明するという、繰り返し発生する課題に直面している。
本稿では,このタスクを制約最適化問題(Constraint Optimization Problem)として,入力データインスタンスの最小誤差と境界サイズの説明と,ブラックボックスが生成したサンプルの集合を求める。
提案手法は,様々なデータセット上で実証的に評価し,最先端のアンカー法よりも統計的に優れていることを示す。
論文 参考訳(メタデータ) (2024-11-13T09:55:59Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - Understanding the (Extra-)Ordinary: Validating Deep Model Decisions with Prototypical Concept-based Explanations [13.60538902487872]
本稿では, 実例的(地域的)かつクラス的(グローバル的)な意思決定戦略をプロトタイプを通じて伝達する, ポストホックなコンセプトベースXAIフレームワークを提案する。
我々は,3つのデータセットにまたがるアウト・オブ・ディストリビューション・サンプル,突発的なモデル行動,データ品質問題同定におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-28T10:53:26Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks against Interpretable Models [1.8752655643513647]
XAIツールは、モデル抽出攻撃の脆弱性を増大させる可能性がある。
そこで本研究では,ブラックボックス設定下での解釈可能なモデルに対して,新たなリトレーニング(学習)に基づくモデル抽出攻撃フレームワークを提案する。
AUTOLYCUSは非常に効果的で、最先端の攻撃に比べてクエリが大幅に少ないことが示される。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Robust and Stable Black Box Explanations [31.05743211871823]
ブラックボックスモデルの堅牢で安定した説明を生成するための新しいフレームワークを提案する。
我々はこのアルゴリズムを線形モデルと決定セットの形式で説明するためにインスタンス化する。
論文 参考訳(メタデータ) (2020-11-12T02:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。