論文の概要: QUCE: The Minimisation and Quantification of Path-Based Uncertainty for
Generative Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2402.17516v1
- Date: Tue, 27 Feb 2024 14:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 16:03:19.096649
- Title: QUCE: The Minimisation and Quantification of Path-Based Uncertainty for
Generative Counterfactual Explanations
- Title(参考訳): quce: 生成的反事実的説明のための経路に基づく不確かさの最小化と定量化
- Authors: Jamie Duell, Hsuan Fu, Monika Seisenberger, Xiuyi Fan
- Abstract要約: Quantified Uncertainty Counterfactual Explanations (QUCE) は、経路の不確実性を最小化する手法である。
そこで本研究では,QUCEが説明文の提示時に不確実性を定量化し,より確実な逆実例を生成することを示す。
本稿では,QUCE法の性能を,経路に基づく説明法と生成対実例の両方の競合手法と比較することによって示す。
- 参考スコア(独自算出の注目度): 1.8024397171920883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) stand out as one of the most prominent approaches
within the Machine Learning (ML) domain. The efficacy of DNNs has surged
alongside recent increases in computational capacity, allowing these approaches
to scale to significant complexities for addressing predictive challenges in
big data. However, as the complexity of DNN models rises, interpretability
diminishes. In response to this challenge, explainable models such as
Adversarial Gradient Integration (AGI) leverage path-based gradients provided
by DNNs to elucidate their decisions. Yet the performance of path-based
explainers can be compromised when gradients exhibit irregularities during
out-of-distribution path traversal. In this context, we introduce Quantified
Uncertainty Counterfactual Explanations (QUCE), a method designed to mitigate
out-of-distribution traversal by minimizing path uncertainty. QUCE not only
quantifies uncertainty when presenting explanations but also generates more
certain counterfactual examples. We showcase the performance of the QUCE method
by comparing it with competing methods for both path-based explanations and
generative counterfactual examples. The code repository for the QUCE method is
available at: https://github.com/jamie-duell/QUCE.
- Abstract(参考訳): Deep Neural Networks(DNN)は、機械学習(ML)ドメインにおける最も顕著なアプローチのひとつとして際立っている。
DNNの有効性は、最近の計算能力の増加と共に急上昇し、これらのアプローチはビッグデータの予測的課題に対処するために、かなりの複雑さにスケールすることができる。
しかし、DNNモデルの複雑さが増すにつれて、解釈可能性も低下する。
この課題に対応するために、Adversarial Gradient Integration (AGI)のような説明可能なモデルは、DNNが提供するパスベースの勾配を利用して意思決定を解明する。
しかし,分布外経路トラバーサル中に勾配が不規則を示す場合,経路に基づく説明器の性能は損なわれる可能性がある。
本稿では,経路の不確実性を最小限に抑えることで,流通経路を緩和する手法であるQuantified Uncertainty Counterfactual Explanations (QUCE)を紹介する。
quceは説明を行う際に不確実性を定量化するだけでなく、より特定の反事実の例を生成する。
本稿では,QUCE法の性能を経路に基づく説明法と生成対実例の競合手法と比較する。
QUCEメソッドのコードリポジトリは、https://github.com/jamie-duell/QUCEで入手できる。
関連論文リスト
- Unveiling the Statistical Foundations of Chain-of-Thought Prompting Methods [59.779795063072655]
CoT(Chain-of-Thought)の促進とその変種は、多段階推論問題を解決する効果的な方法として人気を集めている。
統計的推定の観点からCoTのプロンプトを解析し,その複雑さを包括的に評価する。
論文 参考訳(メタデータ) (2024-08-25T04:07:18Z) - Probabilistically Rewired Message-Passing Neural Networks [41.554499944141654]
メッセージパッシンググラフニューラルネットワーク(MPNN)は、グラフ構造化入力を処理する強力なツールとして登場した。
MPNNは、潜在的なノイズや欠落した情報を無視して、固定された入力グラフ構造で動作する。
確率的に再構成されたMPNN(PR-MPNN)を考案し、より有益なものを省略しながら、関連するエッジを追加することを学習する。
論文 参考訳(メタデータ) (2023-10-03T15:43:59Z) - INDigo: An INN-Guided Probabilistic Diffusion Algorithm for Inverse
Problems [31.693710075183844]
一般逆問題に対する非可逆ニューラルネットワーク(INN)と拡散モデルを組み合わせた手法を提案する。
具体的には、任意の劣化過程をシミュレートするためにINNの前方処理を訓練し、逆処理を再構成プロセスとして使用する。
本アルゴリズムは, 劣化過程で失われる詳細を効果的に推定し, 劣化モデルのクローズドフォーム表現を知る必要により, もはや制限されない。
論文 参考訳(メタデータ) (2023-06-05T15:14:47Z) - Learning Discretized Neural Networks under Ricci Flow [51.36292559262042]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Towards Formal Approximated Minimal Explanations of Neural Networks [0.0]
ディープニューラルネットワーク(DNN)は現在、多くのドメインで使用されている。
DNNは「ブラックボックス」であり、人間には解釈できない。
そこで本研究では,最小限の説明を求めるための効率的な検証手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:06:37Z) - Tackling covariate shift with node-based Bayesian neural networks [26.64657196802115]
ノードベースのBNNは、各隠れノードに潜在確率変数を乗じ、重みの点推定を学習することで不確実性を誘導する。
本稿では、これらの潜伏雑音変数を、訓練中の単純およびドメインに依存しないデータ摂動の暗黙的表現として解釈する。
論文 参考訳(メタデータ) (2022-06-06T08:56:19Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - A new interpretable unsupervised anomaly detection method based on
residual explanation [47.187609203210705]
本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-14T15:35:45Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Differentiable Causal Discovery from Interventional Data [141.41931444927184]
本稿では、介入データを活用可能なニューラルネットワークに基づく理論的基盤化手法を提案する。
提案手法は,様々な環境下での美術品の状態と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-07-03T15:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。