論文の概要: Explainable Predictive Process Monitoring: A User Evaluation
- arxiv url: http://arxiv.org/abs/2202.07760v1
- Date: Tue, 15 Feb 2022 22:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 04:00:29.100629
- Title: Explainable Predictive Process Monitoring: A User Evaluation
- Title(参考訳): 説明可能な予測プロセスモニタリング:ユーザ評価
- Authors: Williams Rizzi, Marco Comuzzi, Chiara Di Francescomarino, Chiara
Ghidini, Suhwan Lee, Fabrizio Maria Maggi, Alexander Nolte
- Abstract要約: 説明責任は、ブラックボックス機械学習アプローチの透明性の欠如によって動機付けられている。
予測プロセスモニタリングのための説明手法のユーザ評価を行う。
- 参考スコア(独自算出の注目度): 62.41400549499849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability is motivated by the lack of transparency of black-box Machine
Learning approaches, which do not foster trust and acceptance of Machine
Learning algorithms. This also happens in the Predictive Process Monitoring
field, where predictions, obtained by applying Machine Learning techniques,
need to be explained to users, so as to gain their trust and acceptance. In
this work, we carry on a user evaluation on explanation approaches for
Predictive Process Monitoring aiming at investigating whether and how the
explanations provided (i) are understandable; (ii) are useful in decision
making tasks;(iii) can be further improved for process analysts, with different
Machine Learning expertise levels. The results of the user evaluation show
that, although explanation plots are overall understandable and useful for
decision making tasks for Business Process Management users -- with and without
experience in Machine Learning -- differences exist in the comprehension and
usage of different plots, as well as in the way users with different Machine
Learning expertise understand and use them.
- Abstract(参考訳): 説明可能性の動機は、ブラックボックス機械学習アプローチの透明性の欠如にある。
これは予測プロセス監視の分野でも起こり、機械学習技術を適用した予測は、信頼と受け入れを得るためにユーザーに説明する必要がある。
本研究では,予測プロセスモニタリングのための説明手法のユーザ評価を行い,その説明方法と方法について検討する。
(i)は理解できる。
(ii) 意思決定作業において有用である。
(iii) 異なる機械学習の専門知識レベルを持つプロセスアナリストにとって、さらに改善できる。
ユーザ評価の結果は、説明プロットは、ビジネスプロセス管理のユーザのための意思決定タスク -- マシンラーニングの経験と経験のない -- に対して、全体的な理解と有用であるが、異なるプロットの理解と使用、さらには異なる機械学習の専門知識を持つユーザによる理解と使用方法に相違が存在することを示している。
関連論文リスト
- Matched Machine Learning: A Generalized Framework for Treatment Effect
Inference With Learned Metrics [87.05961347040237]
我々は、機械学習ブラックボックスの柔軟性とマッチングの解釈可能性を組み合わせたフレームワークであるMatched Machine Learningを紹介する。
我々のフレームワークは機械学習を用いて、一致した単位を学習し、結果を推定する最適な指標を学習する。
一致機械学習のインスタンスはブラックボックスの機械学習手法と同等に動作し、類似した問題に対する既存のマッチング手法よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-04-03T19:32:30Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Explainability in Machine Learning: a Pedagogical Perspective [9.393988089692947]
我々は、学習過程を構造化して、学生や研究者に機械学習の知識をより多く与える方法について、教育学的視点を提供する。
各種不透明かつ透明な機械学習モデルの利点と欠点について論じる。
我々はまた、学生がどんな機械学習アプリケーションと並行して説明可能性を使うことを学ぶのを助けるために、潜在的な課題を構築する方法についても論じる。
論文 参考訳(メタデータ) (2022-02-21T16:15:57Z) - Intuitiveness in Active Teaching [7.8029610421817654]
我々は,ユーザが積極的に教えるアルゴリズムの直感性を解析する。
我々は人間と機械の相互作用の有効性を判断する体系的な方法を提案する。
論文 参考訳(メタデータ) (2020-12-25T09:31:56Z) - The Role of Individual User Differences in Interpretable and Explainable
Machine Learning Systems [0.3169089186688223]
本研究では,機械学習が生成したモデル出力から,個人のスキルや性格特性が解釈可能性,説明可能性,知識発見をどのように予測するかを検討する。
我々の研究は、人間がどのように数値的な刺激を処理するかという主要な理論であるファジィ・トレース理論に依存している。
論文 参考訳(メタデータ) (2020-09-14T18:15:00Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - Toward Machine-Guided, Human-Initiated Explanatory Interactive Learning [9.887110107270196]
最近の研究は、ブラックボックスモデルの理解と監視のために、局所的な説明と活発な学習を組み合わせるという約束を実証している。
ここでは、特定の条件下では、これらのアルゴリズムが学習されるモデルの質を誤って表現する可能性があることを示す。
説明的指導型学習を導入することで、この物語バイアスに対処する。
論文 参考訳(メタデータ) (2020-07-20T11:51:31Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。