論文の概要: A Framework for Feasible Counterfactual Exploration incorporating Causality, Sparsity and Density
- arxiv url: http://arxiv.org/abs/2404.13476v1
- Date: Sat, 20 Apr 2024 22:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 18:50:40.706093
- Title: A Framework for Feasible Counterfactual Exploration incorporating Causality, Sparsity and Density
- Title(参考訳): 因果性, 疎度, 密度を考慮した有意義な対物探査フレームワーク
- Authors: Kleopatra Markou, Dimitrios Tomaras, Vana Kalogeraki, Dimitrios Gunopulos,
- Abstract要約: 機械学習モデルを対実的(CF)説明で解釈する緊急の必要性は、研究コミュニティで注目されている。
この研究は、異なるベンチマークデータセットを使用して、元の入力にわずかな変更を加えてCFサンプルを生成できるかどうかを調べる。
- 参考スコア(独自算出の注目度): 1.1782896991259
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The imminent need to interpret the output of a Machine Learning model with counterfactual (CF) explanations - via small perturbations to the input - has been notable in the research community. Although the variety of CF examples is important, the aspect of them being feasible at the same time, does not necessarily apply in their entirety. This work uses different benchmark datasets to examine through the preservation of the logical causal relations of their attributes, whether CF examples can be generated after a small amount of changes to the original input, be feasible and actually useful to the end-user in a real-world case. To achieve this, we used a black box model as a classifier, to distinguish the desired from the input class and a Variational Autoencoder (VAE) to generate feasible CF examples. As an extension, we also extracted two-dimensional manifolds (one for each dataset) that located the majority of the feasible examples, a representation that adequately distinguished them from infeasible ones. For our experimentation we used three commonly used datasets and we managed to generate feasible and at the same time sparse, CF examples that satisfy all possible predefined causal constraints, by confirming their importance with the attributes in a dataset.
- Abstract(参考訳): 機械学習モデルのアウトプットを、インプットへの小さな摂動を通じて、対実的(CF)説明で解釈する必要があることは、研究コミュニティで注目されている。
CFの様々な例は重要であるが、それらの側面は同時に実現可能であり、必ずしも全体に適用できるとは限らない。
この研究は、異なるベンチマークデータセットを使用して、属性の論理因果関係の保存を通して、CFサンプルが元の入力にわずかな変更を加えて生成可能かどうかを検証し、現実のケースではエンドユーザーにとって実際に有用である。
そこで我々は,入力クラスと可変オートエンコーダ(VAE)を区別するために,ブラックボックスモデルを分類器として使用した。
拡張として、2次元多様体(各データセットの1つ)を抽出し、実現不可能な例の大多数を配置した。
実験では,一般的に使用されている3つのデータセットを使用して,データセットの属性でそれらの重要性を確認することで,事前に定義されたすべての因果制約を満たす,実行可能かつスパースなCF例を生成しました。
関連論文リスト
- TABCF: Counterfactual Explanations for Tabular Data Using a Transformer-Based VAE [12.36019049552672]
本稿では,表データのモデリングに適した変分自動エンコーダ(VAE)を利用するCF説明手法であるABCFを紹介する。
提案手法では,変圧器を用いて連続的な潜伏空間と,高精度な分類的再構成を実現するGumbel-Softmaxデトケナイザを学習する。
論文 参考訳(メタデータ) (2024-10-14T12:55:41Z) - Balancing Fairness and Accuracy in Data-Restricted Binary Classification [14.439413517433891]
本稿では,4つの実践シナリオ下での精度と公平性のトレードオフをモデル化する枠組みを提案する。
3つのデータセットの実験では、トレードオフを定量化するためのツールとして提案されたフレームワークの有用性が示されている。
論文 参考訳(メタデータ) (2024-03-12T15:01:27Z) - Learning Manifold Dimensions with Conditional Variational Autoencoders [22.539599695796014]
可変オートエンコーダ(VAE)とその条件拡張(CVAE)は、複数の領域にわたる最先端の結果を出力することができる。
VAE大域ミニマは、正しい多様体次元を復元できることを示す。
次に、この結果をより一般的なCVAEに拡張し、実用的なシナリオを実証する。
論文 参考訳(メタデータ) (2023-02-23T03:04:00Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Learning Disentangled Latent Factors from Paired Data in Cross-Modal
Retrieval: An Implicit Identifiable VAE Approach [33.61751393224223]
両モーダルデータ間で相互に共有される不整合潜在因子を相互に検索する際の問題に対処する。
本稿では,潜在変数モデルから周辺データデコードモジュールを完全に除去する暗黙デコーダの新たなアイデアを提案する。
本モデルでは,従来のエンコーダ・デコーダの潜在変数モデルよりも精度が高く,精度も優れていた。
論文 参考訳(メタデータ) (2020-12-01T17:47:50Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。