論文の概要: TABCF: Counterfactual Explanations for Tabular Data Using a Transformer-Based VAE
- arxiv url: http://arxiv.org/abs/2410.10463v1
- Date: Mon, 14 Oct 2024 12:55:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-29 21:24:58.653336
- Title: TABCF: Counterfactual Explanations for Tabular Data Using a Transformer-Based VAE
- Title(参考訳): TABCF: Transformer-based VAE を用いた語彙データの非現実的説明
- Authors: Emmanouil Panagiotou, Manuel Heurich, Tim Landgraf, Eirini Ntoutsi,
- Abstract要約: 本稿では,表データのモデリングに適した変分自動エンコーダ(VAE)を利用するCF説明手法であるABCFを紹介する。
提案手法では,変圧器を用いて連続的な潜伏空間と,高精度な分類的再構成を実現するGumbel-Softmaxデトケナイザを学習する。
- 参考スコア(独自算出の注目度): 12.36019049552672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the field of Explainable AI (XAI), counterfactual (CF) explanations are one prominent method to interpret a black-box model by suggesting changes to the input that would alter a prediction. In real-world applications, the input is predominantly in tabular form and comprised of mixed data types and complex feature interdependencies. These unique data characteristics are difficult to model, and we empirically show that they lead to bias towards specific feature types when generating CFs. To overcome this issue, we introduce TABCF, a CF explanation method that leverages a transformer-based Variational Autoencoder (VAE) tailored for modeling tabular data. Our approach uses transformers to learn a continuous latent space and a novel Gumbel-Softmax detokenizer that enables precise categorical reconstruction while preserving end-to-end differentiability. Extensive quantitative evaluation on five financial datasets demonstrates that TABCF does not exhibit bias toward specific feature types, and outperforms existing methods in producing effective CFs that align with common CF desiderata.
- Abstract(参考訳): 説明可能なAI(XAI: Explainable AI)の分野では、予測を変更する入力の変更を提案することによってブラックボックスモデルを解釈する、対実的(CF)説明が顕著な方法の1つである。
現実世界のアプリケーションでは、入力は主に表形式で行われ、混合データ型と複雑な特徴相互依存性から構成される。
これらのユニークなデータ特性はモデル化が困難であり、CFを生成する際に特定の特徴タイプに偏りがあることを経験的に示します。
この問題を解決するために,表データのモデリングに適した変分自動エンコーダ(VAE)を利用したCF説明手法であるABCFを導入する。
提案手法は変圧器を用いて連続的な潜伏空間と,エンドツーエンドの微分性を保ちながら正確な分類的再構成を可能にする新しいGumbel-Softmaxデトケナイザを学習する。
5つのファイナンシャルデータセットの大規模な定量的評価は、TABCFが特定の特徴タイプに偏りを示さないことを示し、一般的なCFデシラタと整合する有効なCFの生成において、既存の手法よりも優れていることを示している。
関連論文リスト
- TabDiff: a Multi-Modal Diffusion Model for Tabular Data Generation [91.50296404732902]
1つのモデルで表データのマルチモーダル分布をモデル化する共同拡散フレームワークであるTabDiffを紹介する。
我々の重要な革新は、数値データと分類データのための連立連続時間拡散プロセスの開発である。
TabDiffは、既存の競合ベースラインよりも優れた平均性能を実現し、ペアワイドカラム相関推定における最先端モデルよりも最大で22.5%改善されている。
論文 参考訳(メタデータ) (2024-10-27T22:58:47Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - The Gaussian Discriminant Variational Autoencoder (GdVAE): A Self-Explainable Model with Counterfactual Explanations [6.741417019751439]
視覚的対物的説明(CF)法は、画像の概念を変更し、予測を事前に定義された結果に変更する。
本稿では,条件付き変分オートエンコーダ(CVAE)とCF説明の統合に基づく自己説明可能なモデルであるGdVAEを紹介する。
CFsの整合性は、説明関数で潜在空間を正規化することによって改善される。
論文 参考訳(メタデータ) (2024-09-19T17:58:15Z) - A Framework for Feasible Counterfactual Exploration incorporating Causality, Sparsity and Density [1.1782896991259]
機械学習モデルを対実的(CF)説明で解釈する緊急の必要性は、研究コミュニティで注目されている。
この研究は、異なるベンチマークデータセットを使用して、元の入力にわずかな変更を加えてCFサンプルを生成できるかどうかを調べる。
論文 参考訳(メタデータ) (2024-04-20T22:05:48Z) - Model-Based Counterfactual Explanations Incorporating Feature Space Attributes for Tabular Data [1.565361244756411]
機械学習モデルは、大規模なデータセットからパターンを正確に予測する。
入力摂動の導入による予測を説明する対実的説明手法が顕著である。
現在の手法では、各入力変更の最適化問題を解く必要があり、計算コストがかかる。
論文 参考訳(メタデータ) (2024-04-20T01:14:19Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。