論文の概要: Black-box Attacks on Image Activity Prediction and its Natural Language
Explanations
- arxiv url: http://arxiv.org/abs/2310.00503v1
- Date: Sat, 30 Sep 2023 21:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 03:48:26.720898
- Title: Black-box Attacks on Image Activity Prediction and its Natural Language
Explanations
- Title(参考訳): 画像活動予測におけるブラックボックス攻撃とその自然言語説明
- Authors: Alina Elena Baia, Valentina Poggioni, Andrea Cavallaro
- Abstract要約: 説明可能なAI(XAI)手法は、ディープニューラルネットワークの決定プロセスを記述することを目的としている。
Visual XAIメソッドは、ホワイトボックスやグレイボックスの攻撃に弱いことが示されている。
我々は,最終出力にのみアクセスすることで,行動認識モデルの説明を操作できる敵画像を作成することができることを示す。
- 参考スコア(独自算出の注目度): 27.301741710016223
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable AI (XAI) methods aim to describe the decision process of deep
neural networks. Early XAI methods produced visual explanations, whereas more
recent techniques generate multimodal explanations that include textual
information and visual representations. Visual XAI methods have been shown to
be vulnerable to white-box and gray-box adversarial attacks, with an attacker
having full or partial knowledge of and access to the target system. As the
vulnerabilities of multimodal XAI models have not been examined, in this paper
we assess for the first time the robustness to black-box attacks of the natural
language explanations generated by a self-rationalizing image-based activity
recognition model. We generate unrestricted, spatially variant perturbations
that disrupt the association between the predictions and the corresponding
explanations to mislead the model into generating unfaithful explanations. We
show that we can create adversarial images that manipulate the explanations of
an activity recognition model by having access only to its final output.
- Abstract(参考訳): 説明可能なAI(XAI)手法は、ディープニューラルネットワークの決定プロセスを記述することを目的としている。
初期のXAI手法では視覚的説明が生成され、近年ではテキスト情報や視覚的表現を含むマルチモーダルな説明が生成されている。
Visual XAIの手法はホワイトボックスやグレイボックスの攻撃に対して脆弱であることが示されており、攻撃者はターゲットシステムに対する完全なまたは部分的にの知識とアクセスを持っている。
マルチモーダルXAIモデルの脆弱性は検討されていないため,本稿では,画像ベース行動認識モデルによる自然言語説明のブラックボックス攻撃に対するロバスト性を初めて評価する。
我々は、予測と対応する説明との間の関係を乱し、モデルを誤解して不適切な説明を生成する非制限的、空間的変分な摂動を生成する。
我々は,最終出力にのみアクセスすることで,行動認識モデルの説明を操作できる敵画像を作成することができることを示す。
関連論文リスト
- MEGL: Multimodal Explanation-Guided Learning [23.54169888224728]
本稿では,モデル解釈性の向上と分類性能の向上を目的とした,新しいマルチモーダル説明誘導学習(MEGL)フレームワークを提案する。
我々のSDTG(Saliency-Driven Textual Grounding)アプローチは、視覚的説明からテキスト論理へ空間情報を統合し、空間的根拠と文脈的リッチな説明を提供する。
我々は、マルチモーダルな説明を伴う画像分類のための2つの新しいデータセットであるObject-MEとAction-MEでMEGLを検証した。
論文 参考訳(メタデータ) (2024-11-20T05:57:00Z) - VALE: A Multimodal Visual and Language Explanation Framework for Image Classifiers using eXplainable AI and Language Models [0.0]
VALE Visual and Language Explanation という新しいフレームワークを提案する。
VALEは説明可能なAI技術と高度な言語モデルを統合し、包括的な説明を提供する。
本稿では,画像分類タスクのためのVALEフレームワークの試験的検討を行う。
論文 参考訳(メタデータ) (2024-08-23T03:02:11Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Advancing Post Hoc Case Based Explanation with Feature Highlighting [0.8287206589886881]
テスト画像中の複数の明瞭な特徴部分を分離し、トレーニングデータに見られる説明事例に接続する2つの一般的なアルゴリズムを提案する。
提案手法は,実世界データにおける曖昧な分類に対して,ユーザの「正確さ」感を適切に校正することを示す。
論文 参考訳(メタデータ) (2023-11-06T16:34:48Z) - Foiling Explanations in Deep Neural Networks [0.0]
本稿では,画像ベースDNNにおける説明手法の問題点を明らかにする。
進化戦略を用いて、説明を任意に操作する方法を実証する。
我々の新しいアルゴリズムは、人間の目では認識できない方法で画像の操作に成功している。
論文 参考訳(メタデータ) (2022-11-27T15:29:39Z) - ProtoShotXAI: Using Prototypical Few-Shot Architecture for Explainable
AI [4.629694186457133]
説明不能なブラックボックスモデルは、異常が有害な応答を引き起こし、受け入れられないリスクを生み出すシナリオを作成する。
本稿では、プロトタイプ数ショットネットワークを用いて、異なるクラスの非線形特徴間の対照的な多様体を探索するProtoShotXAIを提案する。
我々のアプローチは、ローカルに解釈可能な最初のXAIモデルであり、数ショットのネットワークに拡張し、実証することができる。
論文 参考訳(メタデータ) (2021-10-22T05:24:52Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。