論文の概要: DeCoDEx: Confounder Detector Guidance for Improved Diffusion-based Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2405.09288v1
- Date: Wed, 15 May 2024 12:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 13:36:32.800213
- Title: DeCoDEx: Confounder Detector Guidance for Improved Diffusion-based Counterfactual Explanations
- Title(参考訳): DeCoDEx: 拡散に基づく非現実的説明の改善のための共同設立者検出ガイダンス
- Authors: Nima Fathi, Amar Kumar, Brennan Nichyporuk, Mohammad Havaei, Tal Arbel,
- Abstract要約: 本稿では, 拡散法に基づく対物画像生成装置を高精度な説明性に導くために, 予測中に外部の事前学習されたバイナリアーティファクト検出器をどのように活用するかを示す。
提案手法は, 胸水にともなう因果性病理マーカーを変化させる反ファクト画像の合成に成功している。
- 参考スコア(独自算出の注目度): 5.176927269369644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning classifiers are prone to latching onto dominant confounders present in a dataset rather than on the causal markers associated with the target class, leading to poor generalization and biased predictions. Although explainability via counterfactual image generation has been successful at exposing the problem, bias mitigation strategies that permit accurate explainability in the presence of dominant and diverse artifacts remain unsolved. In this work, we propose the DeCoDEx framework and show how an external, pre-trained binary artifact detector can be leveraged during inference to guide a diffusion-based counterfactual image generator towards accurate explainability. Experiments on the CheXpert dataset, using both synthetic artifacts and real visual artifacts (support devices), show that the proposed method successfully synthesizes the counterfactual images that change the causal pathology markers associated with Pleural Effusion while preserving or ignoring the visual artifacts. Augmentation of ERM and Group-DRO classifiers with the DeCoDEx generated images substantially improves the results across underrepresented groups that are out of distribution for each class. The code is made publicly available at https://github.com/NimaFathi/DeCoDEx.
- Abstract(参考訳): ディープラーニングの分類器は、ターゲットクラスに関連付けられた因果マーカーではなく、データセットに存在する支配的な共同創設者をレイチする傾向があり、一般化が不十分でバイアスのある予測につながる。
反ファクト画像生成による説明可能性(英語版)はこの問題を明らかにすることに成功しているが、支配的かつ多様なアーティファクトの存在下での正確な説明性を許容するバイアス緩和戦略は未解決のままである。
本研究では,DeCoDExフレームワークを提案し,予測中に外部の事前学習されたバイナリアーティファクト検出器をどのように活用し,拡散型対実画像生成装置を正確な説明可能性に導くかを示す。
人工人工物とリアルビジュアルアーティファクト(支援装置)の両方を用いたCheXpertデータセットの実験では,視覚アーティファクトを保存・無視しながら,胸水に伴う因果性病理マーカーを変化させる反ファクト画像の合成に成功した。
The DeCoDEx generated image with ERM and Group-DRO classifiers with the DeCoDEx generated images has significantly improve the results across underrepresented group that are out of distribution for each class。
コードはhttps://github.com/NimaFathi/DeCoDExで公開されている。
関連論文リスト
- StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Unsupervised Contrastive Analysis for Salient Pattern Detection using Conditional Diffusion Models [13.970483987621135]
コントラスト分析(CA)は、背景(BG)データセットとターゲット(TG)データセット(不健康な被験者)を区別できる画像内のパターンを識別することを目的としている。
この話題に関する最近の研究は、BGサンプルからTGサンプルを分離するパターンを教師付きで学習するために、変分オートエンコーダ(VAE)や対照的な学習戦略に依存している。
自己教師付きコントラストエンコーダを用いて、入力画像から共通パターンのみを符号化する潜時表現を学習し、トレーニング中にBGデータセットからのみサンプルを用いて学習し、データ拡張技術を用いて対象パターンの分布を近似する。
論文 参考訳(メタデータ) (2024-06-02T15:19:07Z) - Diffusion Model with Cross Attention as an Inductive Bias for Disentanglement [58.9768112704998]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - DiffAug: Enhance Unsupervised Contrastive Learning with Domain-Knowledge-Free Diffusion-based Data Augmentation [48.25619775814776]
本稿では,拡散モードに基づく正データ生成を用いた新しい教師なしコントラスト学習手法であるDiffAugを提案する。
DiffAugはセマンティックエンコーダと条件拡散モデルから構成されており、条件拡散モデルはセマンティックエンコーダに条件付された新しい正のサンプルを生成する。
実験的評価により、DiffAugは、DNA配列、視覚、および生体機能データセットのハンドデザインおよびSOTAモデルに基づく拡張手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-10T13:28:46Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - Enhancing Diffusion-Based Image Synthesis with Robust Classifier
Guidance [17.929524924008962]
クラス条件生成のために,時間依存型分類器からの勾配による拡散過程の導出を提案した。
このアイデアは理論上は健全だが、ディープラーニングベースの分類器は、勾配に基づく敵対攻撃に悪名高い。
本研究では,時間依存型頑健な分類器を定義・訓練し,生成拡散モデルのガイダンスとして利用する。
論文 参考訳(メタデータ) (2022-08-18T06:51:23Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。