論文の概要: Unifying Image Counterfactuals and Feature Attributions with Latent-Space Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2504.15479v1
- Date: Mon, 21 Apr 2025 23:09:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-01 01:05:08.100996
- Title: Unifying Image Counterfactuals and Feature Attributions with Latent-Space Adversarial Attacks
- Title(参考訳): ラテントスペース攻撃による画像対物関係と特徴属性の統一
- Authors: Jeremy Goldwasser, Giles Hooker,
- Abstract要約: 本稿では,反ファクト画像のための新しい実装フレームワークを提案する。
我々の手法は、低次元多様体に沿った画像の表現に対する逆攻撃に似ている。
提案手法は, 特徴属性を伴って, 原画像と反事実画像の変化を定量化する手法である。
- 参考スコア(独自算出の注目度): 3.8642937395065124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactuals are a popular framework for interpreting machine learning predictions. These what if explanations are notoriously challenging to create for computer vision models: standard gradient-based methods are prone to produce adversarial examples, in which imperceptible modifications to image pixels provoke large changes in predictions. We introduce a new, easy-to-implement framework for counterfactual images that can flexibly adapt to contemporary advances in generative modeling. Our method, Counterfactual Attacks, resembles an adversarial attack on the representation of the image along a low-dimensional manifold. In addition, given an auxiliary dataset of image descriptors, we show how to accompany counterfactuals with feature attribution that quantify the changes between the original and counterfactual images. These importance scores can be aggregated into global counterfactual explanations that highlight the overall features driving model predictions. While this unification is possible for any counterfactual method, it has particular computational efficiency for ours. We demonstrate the efficacy of our approach with the MNIST and CelebA datasets.
- Abstract(参考訳): ファクトファクトは、機械学習の予測を解釈するための一般的なフレームワークである。
標準的な勾配に基づく手法は、画像ピクセルに対する知覚不能な修正によって予測に大きな変化をもたらす敵の例を生成する傾向があります。
生成モデリングの現代的進歩に柔軟に対応可能な,対物画像のための新しい,実装が容易なフレームワークを提案する。
我々の手法である反現実的攻撃は、低次元多様体に沿った画像の表現に対する逆攻撃に似ている。
また,画像記述子の補助的データセットが与えられた場合,原画像と反事実画像の変化を定量化するための特徴属性の対応方法を示す。
これらの重要なスコアは、モデル予測を駆動する全体的な特徴を強調するグローバルな対実的な説明に集約することができる。
この統合は、あらゆる反現実的手法で可能であるが、我々の計算効率は特に高い。
MNISTおよびCelebAデータセットを用いて,本手法の有効性を示す。
関連論文リスト
- A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - Diffusion Counterfactuals for Image Regressors [1.534667887016089]
拡散型生成モデルを用いて、画像回帰タスクの反実的説明を生成する2つの方法を提案する。
どちらもCelebA-HQと合成データセット上で現実的でセマンティックでスムーズな偽物を生成する。
回帰反事実に対して,特徴の変化は予測値の領域に依存することがわかった。
論文 参考訳(メタデータ) (2025-03-26T14:42:46Z) - Data Augmentation via Latent Diffusion for Saliency Prediction [67.88936624546076]
残差予測モデルはラベル付きデータの限られた多様性と量によって制約される。
本研究では,実世界のシーンの複雑さと変動性を保ちながら,自然画像の編集を行うディープ・サリエンシ・予測のための新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T14:36:24Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Designing Counterfactual Generators using Deep Model Inversion [31.1607056675927]
本研究では,あるクエリー画像に対する反実的説明を生成するための深い逆変換手法を開発する。
視覚的に意味のある説明を生成することに加えて、disCの反事実は意思決定境界の学習に有効であり、未知のテストタイムの汚職に対して堅牢であることがわかった。
論文 参考訳(メタデータ) (2021-09-29T08:40:50Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。