論文の概要: The Gaussian Discriminant Variational Autoencoder (GdVAE): A Self-Explainable Model with Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2409.12952v1
- Date: Thu, 19 Sep 2024 17:58:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 12:48:01.330984
- Title: The Gaussian Discriminant Variational Autoencoder (GdVAE): A Self-Explainable Model with Counterfactual Explanations
- Title(参考訳): ガウス微分変分オートエンコーダ(GdVAE):非現実的説明を伴う自己説明可能なモデル
- Authors: Anselm Haselhoff, Kevin Trelenberg, Fabian Küppers, Jonas Schneider,
- Abstract要約: 視覚的対物的説明(CF)法は、画像の概念を変更し、予測を事前に定義された結果に変更する。
本稿では,条件付き変分オートエンコーダ(CVAE)とCF説明の統合に基づく自己説明可能なモデルであるGdVAEを紹介する。
CFsの整合性は、説明関数で潜在空間を正規化することによって改善される。
- 参考スコア(独自算出の注目度): 6.741417019751439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual counterfactual explanation (CF) methods modify image concepts, e.g, shape, to change a prediction to a predefined outcome while closely resembling the original query image. Unlike self-explainable models (SEMs) and heatmap techniques, they grant users the ability to examine hypothetical "what-if" scenarios. Previous CF methods either entail post-hoc training, limiting the balance between transparency and CF quality, or demand optimization during inference. To bridge the gap between transparent SEMs and CF methods, we introduce the GdVAE, a self-explainable model based on a conditional variational autoencoder (CVAE), featuring a Gaussian discriminant analysis (GDA) classifier and integrated CF explanations. Full transparency is achieved through a generative classifier that leverages class-specific prototypes for the downstream task and a closed-form solution for CFs in the latent space. The consistency of CFs is improved by regularizing the latent space with the explainer function. Extensive comparisons with existing approaches affirm the effectiveness of our method in producing high-quality CF explanations while preserving transparency. Code and models are public.
- Abstract(参考訳): ビジュアル・カウンティファクト・説明(CF)手法は、例えば形状などのイメージ概念を修正し、元のクエリ・イメージによく似ているが、予測を事前に定義された結果に変更する。
自己説明可能なモデル(SEM)やヒートマップ技術とは異なり、仮説的な"What-if"シナリオを検証できる。
従来のCFメソッドでは、ポストホックトレーニング、透明性とCF品質のバランスの制限、あるいは推論時の需要最適化が必要だった。
GdVAEは条件付き変分オートエンコーダ(CVAE)に基づく自己説明可能なモデルであり、ガウス微分分析(GDA)分類器と統合CF説明器を特徴とする。
完全な透明性は、下流タスクのクラス固有のプロトタイプと、潜在空間におけるCFのクローズドフォームソリューションを活用する生成型分類器によって達成される。
CFsの整合性は、説明関数で潜在空間を正規化することによって改善される。
既存の手法との比較により,透明性を維持しつつ高品質なCF説明を作成する上で,本手法の有効性を確認した。
コードとモデルは公開されています。
関連論文リスト
- Rectified Diffusion Guidance for Conditional Generation [62.00207951161297]
CFGの背後にある理論を再検討し、組合せ係数の不適切な構成(すなわち、広く使われている和対1バージョン)が生成分布の期待シフトをもたらすことを厳密に確認する。
本稿では,誘導係数を緩和したReCFGを提案する。
このようにして、修正された係数は観測されたデータをトラバースすることで容易に事前計算でき、サンプリング速度はほとんど影響を受けない。
論文 参考訳(メタデータ) (2024-10-24T13:41:32Z) - TABCF: Counterfactual Explanations for Tabular Data Using a Transformer-Based VAE [12.36019049552672]
本稿では,表データのモデリングに適した変分自動エンコーダ(VAE)を利用するCF説明手法であるABCFを紹介する。
提案手法では,変圧器を用いて連続的な潜伏空間と,高精度な分類的再構成を実現するGumbel-Softmaxデトケナイザを学習する。
論文 参考訳(メタデータ) (2024-10-14T12:55:41Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Diffusion-TTA: Test-time Adaptation of Discriminative Models via
Generative Feedback [97.0874638345205]
生成モデルは、識別モデルのための優れたテストタイムアダプタになり得る。
提案手法であるDiffusion-TTAは,事前学習した判別モデルを,テストセットの各未学習例に適応させる。
拡散-TTAは,様々な大規模事前学習型判別モデルの精度を著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-27T18:59:53Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - SAFE: Saliency-Aware Counterfactual Explanations for DNN-based Automated
Driving Systems [10.40211479079817]
CF説明器は、モデルの判断境界を越えるのに必要な最小限の修正を計算する。
現在のDeep Generative CFモデルは、ブラックボックスモデルの識別機能に注目するのではなく、ユーザ選択された機能で機能することが多い。
本稿では、より情報的なCF説明を生成するために、サリエンシマップを利用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-28T19:56:01Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - Diffusion Visual Counterfactual Explanations [51.077318228247925]
VCE(Visual Counterfactual Explanations)は、画像の決定を理解するための重要なツールである。
VCEの生成に対する現在のアプローチは、逆向きに堅牢なモデルに制限されており、しばしば非現実的なアーティファクトを含んでいる。
本稿では、任意のイメージネット分類器に対して、視覚拡散対実説明(DVCE)を生成することでこれを克服する。
論文 参考訳(メタデータ) (2022-10-21T09:35:47Z) - Cycle-Consistent Counterfactuals by Latent Transformations [5.254093731341154]
C3LT (Cycle-Consistent Counterfactuals by Latent Transformations) は、生成モデルの潜在空間内でのステアリングによって視覚を自動生成する潜時変換を学習する。
C3LTは、どんな最先端の事前訓練された生成ネットワークにも容易に接続できる。
CFの説明を評価するためのいくつかの確立されたメトリクスに加えて、生成されたCFの例の品質を評価するために調整された新しいメトリクスを導入する。
論文 参考訳(メタデータ) (2022-03-28T20:10:09Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。