論文の概要: Communicating Uncertainty in Machine Learning Explanations: A
Visualization Analytics Approach for Predictive Process Monitoring
- arxiv url: http://arxiv.org/abs/2304.05736v1
- Date: Wed, 12 Apr 2023 09:44:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:29:49.749004
- Title: Communicating Uncertainty in Machine Learning Explanations: A
Visualization Analytics Approach for Predictive Process Monitoring
- Title(参考訳): 機械学習説明における不確かさのコミュニケーション:予測プロセスモニタリングのための可視化分析アプローチ
- Authors: Nijat Mehdiyev, Maxim Majlatow and Peter Fettke
- Abstract要約: 本研究では,グローバルおよびローカルなポストホックな説明手法でモデル不確実性を効果的に伝達する方法を検討する。
これら2つの研究の方向性を組み合わせることで、意思決定者は説明駆動型実行可能な洞察の妥当性を正当化できるだけでなく、信頼性も検証できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As data-driven intelligent systems advance, the need for reliable and
transparent decision-making mechanisms has become increasingly important.
Therefore, it is essential to integrate uncertainty quantification and model
explainability approaches to foster trustworthy business and operational
process analytics. This study explores how model uncertainty can be effectively
communicated in global and local post-hoc explanation approaches, such as
Partial Dependence Plots (PDP) and Individual Conditional Expectation (ICE)
plots. In addition, this study examines appropriate visualization analytics
approaches to facilitate such methodological integration. By combining these
two research directions, decision-makers can not only justify the plausibility
of explanation-driven actionable insights but also validate their reliability.
Finally, the study includes expert interviews to assess the suitability of the
proposed approach and designed interface for a real-world predictive process
monitoring problem in the manufacturing domain.
- Abstract(参考訳): データ駆動のインテリジェントシステムが進歩するにつれ、信頼性と透明性を備えた意思決定メカニズムの必要性がますます重要になっている。
したがって、信頼に値するビジネスおよび運用プロセス分析を促進するために、不確実性定量化とモデル説明可能性アプローチを統合することが不可欠である。
本研究では,PDP(Partial Dependence Plots)やICE(Personal Conditional expectation)プロットなど,グローバルおよびローカルなポストホックな説明手法においてモデル不確実性を効果的に伝達する方法を検討する。
さらに,このような方法論の統合を容易にするため,適切な可視化分析手法を検討する。
これら2つの研究方向を組み合わせることで、意思決定者は説明駆動行動可能な洞察の妥当性を正当化できるだけでなく、その信頼性を検証することができる。
最後に,本研究は,提案手法の適合性を評価するためのエキスパートインタビューと,製造領域における実世界の予測プロセス監視問題に対するインタフェース設計を含む。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Interpretable Concept-Based Memory Reasoning [12.562474638728194]
コンセプトベースのメモリリゾナー(CMR)は、人間に理解でき、検証可能なタスク予測プロセスを提供するために設計された新しいCBMである。
CMRは、最先端のCBMに対する精度-解釈可能性のトレードオフを向上し、基礎的な真実と整合した論理規則を発見し、規則の介入を可能にし、事前デプロイ検証を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:32:48Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - Self-consistent Validation for Machine Learning Electronic Structure [81.54661501506185]
機械学習と自己整合フィールド法を統合して,検証コストの低減と解釈可能性の両立を実現する。
これにより、積極的学習によるモデルの能力の探索が可能となり、実際の研究への統合への信頼がもたらされる。
論文 参考訳(メタデータ) (2024-02-15T18:41:35Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Quantifying and Explaining Machine Learning Uncertainty in Predictive
Process Monitoring: An Operations Research Perspective [0.0]
本稿では,情報システムと人工知能を統合した総合的多段階機械学習手法を提案する。
提案したフレームワークは、データ駆動推定の無視など、既存のソリューションの共通的な制限を十分に解決する。
本手法では,Shapley Additive Explanationsの局所的およびグローバル的変異とともに,時間間隔予測を生成するために,Quantile Regression Forestsを用いている。
論文 参考訳(メタデータ) (2023-04-13T11:18:22Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Evaluating Bayesian Model Visualisations [0.39845810840390733]
確率モデルは、最終的に人々が下した幅広いビジネスおよび政策決定を知らせる。
近年のアルゴリズム,計算,ソフトウェアフレームワークの開発はベイズ確率モデルの普及を促進する。
意思決定者は複雑なクエリを探索し、理論上はWhat-if-style条件付けを行うことができるが、不確実性の下でユーザの理解と合理的な意思決定を最大化するためには、適切な視覚化と対話ツールが必要である。
論文 参考訳(メタデータ) (2022-01-10T19:15:39Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Local Post-Hoc Explanations for Predictive Process Monitoring in
Manufacturing [0.0]
本研究では,製造におけるデータ駆動型意思決定を容易にするための,革新的な予測品質分析ソリューションを提案する。
プロセスマイニング、機械学習、説明可能な人工知能(XAI)メソッドを組み合わせる。
論文 参考訳(メタデータ) (2020-09-22T13:07:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。