論文の概要: CeFlow: A Robust and Efficient Counterfactual Explanation Framework for
Tabular Data using Normalizing Flows
- arxiv url: http://arxiv.org/abs/2303.14668v1
- Date: Sun, 26 Mar 2023 09:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:09:28.887631
- Title: CeFlow: A Robust and Efficient Counterfactual Explanation Framework for
Tabular Data using Normalizing Flows
- Title(参考訳): ceflow:正規化フローを用いた表データのためのロバストで効率的な反事実説明フレームワーク
- Authors: Tri Dung Duong, Qian Li, Guandong Xu
- Abstract要約: 対実的説明は、望ましい結果を達成するためにサンプルの摂動を生成する解釈可能な機械学習の一形態である。
可変オートエンコーダ (VAE) を用いて実現可能な改善を実現するために, 最先端の対実的説明法を提案する。
我々は,連続的特徴と分類的特徴の混合型に対して正規化フローを利用する,堅牢で効率的な対実的説明フレームワークであるCeFlowを設計する。
- 参考スコア(独自算出の注目度): 11.108866104714627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanation is a form of interpretable machine learning that
generates perturbations on a sample to achieve the desired outcome. The
generated samples can act as instructions to guide end users on how to observe
the desired results by altering samples. Although state-of-the-art
counterfactual explanation methods are proposed to use variational autoencoder
(VAE) to achieve promising improvements, they suffer from two major
limitations: 1) the counterfactuals generation is prohibitively slow, which
prevents algorithms from being deployed in interactive environments; 2) the
counterfactual explanation algorithms produce unstable results due to the
randomness in the sampling procedure of variational autoencoder. In this work,
to address the above limitations, we design a robust and efficient
counterfactual explanation framework, namely CeFlow, which utilizes normalizing
flows for the mixed-type of continuous and categorical features. Numerical
experiments demonstrate that our technique compares favorably to
state-of-the-art methods. We release our source at
https://github.com/tridungduong16/fairCE.git for reproducing the results.
- Abstract(参考訳): 対実的説明は、望ましい結果を得るためにサンプルの摂動を生成する解釈可能な機械学習の一形態である。
生成されたサンプルは、サンプルを変更することで、エンドユーザに望ましい結果の観察方法を案内するインストラクションとして機能する。
可変オートエンコーダ (VAE) を用いて実現可能な改善を実現する手法が提案されているが, 2つの大きな限界がある。
1) 反事実生成が禁止的に遅いため,アルゴリズムがインタラクティブな環境にデプロイされることが防止される。
2) 逆実説明アルゴリズムは, 変分オートエンコーダのサンプリング手順におけるランダム性による不安定な結果を生成する。
本研究では、上記の制約に対処するため、連続的および分類的特徴の混合型に対して正規化フローを利用する堅牢で効率的な対実的説明フレームワークであるCeFlowを設計する。
数値実験により,本手法は最先端手法と良好に比較できることが示された。
ソースはhttps://github.com/tridungduong16/fairce.gitで公開しています。
関連論文リスト
- F-Fidelity: A Robust Framework for Faithfulness Evaluation of Explainable AI [15.314388210699443]
微調整フィデリティF-フィデリティはXAIの堅牢な評価フレームワークである。
その結果, F-Fidelity は, 説明者の信頼度を回復する上で, 事前評価基準を著しく改善することを示した。
また,F-Fidelityの指標を忠実に説明すれば,入力成分の空間性を計算することができることを示す。
論文 参考訳(メタデータ) (2024-10-03T20:23:06Z) - Bidirectional Decoding: Improving Action Chunking via Closed-Loop Resampling [51.38330727868982]
双方向デコーディング(BID)は、クローズドループ操作で動作チャンキングをブリッジするテスト時間推論アルゴリズムである。
BIDは、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - Model-Based Counterfactual Explanations Incorporating Feature Space Attributes for Tabular Data [1.565361244756411]
機械学習モデルは、大規模なデータセットからパターンを正確に予測する。
入力摂動の導入による予測を説明する対実的説明手法が顕著である。
現在の手法では、各入力変更の最適化問題を解く必要があり、計算コストがかかる。
論文 参考訳(メタデータ) (2024-04-20T01:14:19Z) - Revisiting Edge Perturbation for Graph Neural Network in Graph Data
Augmentation and Attack [58.440711902319855]
エッジ摂動はグラフ構造を変更する方法である。
グラフニューラルネットワーク(GNN)の性能への影響に基づき、2つの静脈に分類できる。
統一的な定式化を提案し、エッジ摂動法の2つのカテゴリ間の明確な境界を確立する。
論文 参考訳(メタデータ) (2024-03-10T15:50:04Z) - Sample and Predict Your Latent: Modality-free Sequential Disentanglement
via Contrastive Estimation [2.7759072740347017]
外部信号のないコントラスト推定に基づく自己教師付きシーケンシャル・アンタングルメント・フレームワークを提案する。
実際に,データのセマンティックに類似し,異種なビューに対して,統一的で効率的かつ容易にサンプリングできる手法を提案する。
提案手法は,既存の手法と比較して最先端の結果を示す。
論文 参考訳(メタデータ) (2023-05-25T10:50:30Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - DiffTAD: Temporal Action Detection with Proposal Denoising Diffusion [137.8749239614528]
そこで我々は,時間的行動検出(TAD)の新しい定式化を提案し,拡散を抑えるDiffTADを提案する。
入力されたランダムな時間的提案を考慮すれば、トリミングされていない長いビデオが与えられたアクションの提案を正確に得ることができる。
論文 参考訳(メタデータ) (2023-03-27T00:40:52Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Causality-based Counterfactual Explanation for Classification Models [11.108866104714627]
本稿では,プロトタイプに基づく対実的説明フレームワーク(ProCE)を提案する。
ProCEは、カウンターファクトデータの特徴の根底にある因果関係を保存することができる。
さらに,提案手法を応用した多目的遺伝的アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-05-03T09:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。