論文の概要: Communicating Uncertainty in Machine Learning Explanations: A
Visualization Analytics Approach for Predictive Process Monitoring
- arxiv url: http://arxiv.org/abs/2304.05736v1
- Date: Wed, 12 Apr 2023 09:44:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:29:49.749004
- Title: Communicating Uncertainty in Machine Learning Explanations: A
Visualization Analytics Approach for Predictive Process Monitoring
- Title(参考訳): 機械学習説明における不確かさのコミュニケーション:予測プロセスモニタリングのための可視化分析アプローチ
- Authors: Nijat Mehdiyev, Maxim Majlatow and Peter Fettke
- Abstract要約: 本研究では,グローバルおよびローカルなポストホックな説明手法でモデル不確実性を効果的に伝達する方法を検討する。
これら2つの研究の方向性を組み合わせることで、意思決定者は説明駆動型実行可能な洞察の妥当性を正当化できるだけでなく、信頼性も検証できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As data-driven intelligent systems advance, the need for reliable and
transparent decision-making mechanisms has become increasingly important.
Therefore, it is essential to integrate uncertainty quantification and model
explainability approaches to foster trustworthy business and operational
process analytics. This study explores how model uncertainty can be effectively
communicated in global and local post-hoc explanation approaches, such as
Partial Dependence Plots (PDP) and Individual Conditional Expectation (ICE)
plots. In addition, this study examines appropriate visualization analytics
approaches to facilitate such methodological integration. By combining these
two research directions, decision-makers can not only justify the plausibility
of explanation-driven actionable insights but also validate their reliability.
Finally, the study includes expert interviews to assess the suitability of the
proposed approach and designed interface for a real-world predictive process
monitoring problem in the manufacturing domain.
- Abstract(参考訳): データ駆動のインテリジェントシステムが進歩するにつれ、信頼性と透明性を備えた意思決定メカニズムの必要性がますます重要になっている。
したがって、信頼に値するビジネスおよび運用プロセス分析を促進するために、不確実性定量化とモデル説明可能性アプローチを統合することが不可欠である。
本研究では,PDP(Partial Dependence Plots)やICE(Personal Conditional expectation)プロットなど,グローバルおよびローカルなポストホックな説明手法においてモデル不確実性を効果的に伝達する方法を検討する。
さらに,このような方法論の統合を容易にするため,適切な可視化分析手法を検討する。
これら2つの研究方向を組み合わせることで、意思決定者は説明駆動行動可能な洞察の妥当性を正当化できるだけでなく、その信頼性を検証することができる。
最後に,本研究は,提案手法の適合性を評価するためのエキスパートインタビューと,製造領域における実世界の予測プロセス監視問題に対するインタフェース設計を含む。
関連論文リスト
- Generating Feasible and Plausible Counterfactual Explanations for Outcome Prediction of Business Processes [45.502284864662585]
データ駆動型アプローチであるREVISEDplusを導入し、妥当な対実的説明を生成する。
まず, プロセスデータの高密度領域内に存在する反ファクトデータを生成するために, 反ファクトアルゴリズムを限定する。
また、プロセスケースにおけるアクティビティ間のシーケンシャルなパターンを学習することで、妥当性を保証します。
論文 参考訳(メタデータ) (2024-03-14T09:56:35Z) - Self-consistent Validation for Machine Learning Electronic Structure [81.54661501506185]
機械学習と自己整合フィールド法を統合して,検証コストの低減と解釈可能性の両立を実現する。
これにより、積極的学習によるモデルの能力の探索が可能となり、実際の研究への統合への信頼がもたらされる。
論文 参考訳(メタデータ) (2024-02-15T18:41:35Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Quantifying and Explaining Machine Learning Uncertainty in Predictive
Process Monitoring: An Operations Research Perspective [0.0]
本稿では,情報システムと人工知能を統合した総合的多段階機械学習手法を提案する。
提案したフレームワークは、データ駆動推定の無視など、既存のソリューションの共通的な制限を十分に解決する。
本手法では,Shapley Additive Explanationsの局所的およびグローバル的変異とともに,時間間隔予測を生成するために,Quantile Regression Forestsを用いている。
論文 参考訳(メタデータ) (2023-04-13T11:18:22Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Evaluating Bayesian Model Visualisations [0.39845810840390733]
確率モデルは、最終的に人々が下した幅広いビジネスおよび政策決定を知らせる。
近年のアルゴリズム,計算,ソフトウェアフレームワークの開発はベイズ確率モデルの普及を促進する。
意思決定者は複雑なクエリを探索し、理論上はWhat-if-style条件付けを行うことができるが、不確実性の下でユーザの理解と合理的な意思決定を最大化するためには、適切な視覚化と対話ツールが必要である。
論文 参考訳(メタデータ) (2022-01-10T19:15:39Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Local Post-Hoc Explanations for Predictive Process Monitoring in
Manufacturing [0.0]
本研究では,製造におけるデータ駆動型意思決定を容易にするための,革新的な予測品質分析ソリューションを提案する。
プロセスマイニング、機械学習、説明可能な人工知能(XAI)メソッドを組み合わせる。
論文 参考訳(メタデータ) (2020-09-22T13:07:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。