論文の概要: Exploiting Explanations for Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2104.12669v1
- Date: Mon, 26 Apr 2021 15:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:48:11.648163
- Title: Exploiting Explanations for Model Inversion Attacks
- Title(参考訳): モデル反転攻撃の爆発的説明
- Authors: Xuejun Zhao, Wencan Zhang, Xiaokui Xiao, Brian Y. Lim
- Abstract要約: モデル説明からプライベートな画像データを再構成する性能を高め、画像に基づくモデル反転攻撃のリスクを検討する。
我々は,複数のマルチモーダル変換cnnアーキテクチャを開発し,ターゲットモデル予測のみを用いた場合よりも大幅に高いインバージョン性能を実現する。
これらの脅威は、説明の緊急かつ重要なプライバシーリスクを強調し、新しいプライバシー保護技術への注意を呼びかける。
- 参考スコア(独自算出の注目度): 19.91586648726519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The successful deployment of artificial intelligence (AI) in many domains
from healthcare to hiring requires their responsible use, particularly in model
explanations and privacy. Explainable artificial intelligence (XAI) provides
more information to help users to understand model decisions, yet this
additional knowledge exposes additional risks for privacy attacks. Hence,
providing explanation harms privacy. We study this risk for image-based model
inversion attacks and identified several attack architectures with increasing
performance to reconstruct private image data from model explanations. We have
developed several multi-modal transposed CNN architectures that achieve
significantly higher inversion performance than using the target model
prediction only. These XAI-aware inversion models were designed to exploit the
spatial knowledge in image explanations. To understand which explanations have
higher privacy risk, we analyzed how various explanation types and factors
influence inversion performance. In spite of some models not providing
explanations, we further demonstrate increased inversion performance even for
non-explainable target models by exploiting explanations of surrogate models
through attention transfer. This method first inverts an explanation from the
target prediction, then reconstructs the target image. These threats highlight
the urgent and significant privacy risks of explanations and calls attention
for new privacy preservation techniques that balance the dual-requirement for
AI explainability and privacy.
- Abstract(参考訳): 医療から雇用まで、多くの領域における人工知能(AI)の展開の成功には、特にモデル説明とプライバシにおいて、責任ある使用が必要である。
説明可能な人工知能(XAI)は、ユーザーがモデル決定を理解するのに役立つ情報を提供するが、この追加の知識は、プライバシー攻撃のさらなるリスクを露呈する。
したがって、説明を提供することはプライバシーを害する。
画像ベースモデルインバージョンアタックに対するこのリスクを調査し,モデル説明からプライベートイメージデータを再構成する性能を向上させる複数のアタックアーキテクチャを同定した。
対象モデルのみを用いた場合よりもはるかに高いインバージョン性能を実現するマルチモーダル変換CNNアーキテクチャを開発した。
これらのXAI対応インバージョンモデルは、画像説明における空間的知識を活用するために設計された。
どの説明がプライバシーリスクが高いかを理解するために,さまざまな説明タイプや要因が逆性能に与える影響を分析した。
説明を提供していないモデルもいくつかあるが,注意伝達による代理モデルの説明を活用し,説明不能な対象モデルにおいてもインバージョン性能が向上することを示す。
この方法は、まずターゲット予測から説明を反転させ、次にターゲット画像を再構成する。
これらの脅威は、説明の緊急かつ重要なプライバシーリスクを強調し、AI説明可能性とプライバシーの二重要求をバランスさせる新しいプライバシー保護技術への注意を呼びかける。
関連論文リスト
- Visual Privacy Auditing with Diffusion Models [52.866433097406656]
本稿では,拡散モデル(DM)に基づくリコンストラクション攻撃を提案する。
本研究では,(1)実世界のデータ漏洩が再建の成功に大きく影響すること,(2)現在のリビルド境界がデータ先行によるリスクをうまくモデル化していないこと,(3)DMは,プライバシー漏洩を可視化するための効果的な監査ツールとして機能すること,を示す。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Black-box Attacks on Image Activity Prediction and its Natural Language
Explanations [27.301741710016223]
説明可能なAI(XAI)手法は、ディープニューラルネットワークの決定プロセスを記述することを目的としている。
Visual XAIメソッドは、ホワイトボックスやグレイボックスの攻撃に弱いことが示されている。
我々は,最終出力にのみアクセスすることで,行動認識モデルの説明を操作できる敵画像を作成することができることを示す。
論文 参考訳(メタデータ) (2023-09-30T21:56:43Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - XRand: Differentially Private Defense against Explanation-Guided Attacks [19.682368614810756]
本稿では,局所微分プライバシー(LDP)を実現するための新しい概念を紹介する。
本機構は,説明の忠実さを維持しつつ,敵が最も重要な特徴について学べる情報を制限するものであることを示す。
論文 参考訳(メタデータ) (2022-12-08T18:23:59Z) - The privacy issue of counterfactual explanations: explanation linkage
attacks [0.0]
本稿では、インスタンスベースの戦略をデプロイして、偽説明を見つける際に発生する説明リンク攻撃について紹介する。
このような攻撃に対抗するため、我々はk匿名の偽物説明を提案し、これらのk匿名の偽物説明の有効性を評価するための新しい指標として純粋性を導入する。
この結果から,データセット全体ではなく,k-匿名で説明を行うことが,説明の質に有益であることが示唆された。
論文 参考訳(メタデータ) (2022-10-21T15:44:19Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Membership Inference Attacks Against Text-to-image Generation Models [23.39695974954703]
本稿では,メンバシップ推論のレンズを用いたテキスト・画像生成モデルの最初のプライバシ解析を行う。
本稿では,メンバーシップ情報に関する3つの重要な直観と,それに応じて4つの攻撃手法を設計する。
提案した攻撃はいずれも大きな性能を達成でき、場合によっては精度が1に近い場合もあり、既存のメンバーシップ推論攻撃よりもはるかに深刻なリスクとなる。
論文 参考訳(メタデータ) (2022-10-03T14:31:39Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。