論文の概要: Exploiting Explanations for Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2104.12669v1
- Date: Mon, 26 Apr 2021 15:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:48:11.648163
- Title: Exploiting Explanations for Model Inversion Attacks
- Title(参考訳): モデル反転攻撃の爆発的説明
- Authors: Xuejun Zhao, Wencan Zhang, Xiaokui Xiao, Brian Y. Lim
- Abstract要約: モデル説明からプライベートな画像データを再構成する性能を高め、画像に基づくモデル反転攻撃のリスクを検討する。
我々は,複数のマルチモーダル変換cnnアーキテクチャを開発し,ターゲットモデル予測のみを用いた場合よりも大幅に高いインバージョン性能を実現する。
これらの脅威は、説明の緊急かつ重要なプライバシーリスクを強調し、新しいプライバシー保護技術への注意を呼びかける。
- 参考スコア(独自算出の注目度): 19.91586648726519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The successful deployment of artificial intelligence (AI) in many domains
from healthcare to hiring requires their responsible use, particularly in model
explanations and privacy. Explainable artificial intelligence (XAI) provides
more information to help users to understand model decisions, yet this
additional knowledge exposes additional risks for privacy attacks. Hence,
providing explanation harms privacy. We study this risk for image-based model
inversion attacks and identified several attack architectures with increasing
performance to reconstruct private image data from model explanations. We have
developed several multi-modal transposed CNN architectures that achieve
significantly higher inversion performance than using the target model
prediction only. These XAI-aware inversion models were designed to exploit the
spatial knowledge in image explanations. To understand which explanations have
higher privacy risk, we analyzed how various explanation types and factors
influence inversion performance. In spite of some models not providing
explanations, we further demonstrate increased inversion performance even for
non-explainable target models by exploiting explanations of surrogate models
through attention transfer. This method first inverts an explanation from the
target prediction, then reconstructs the target image. These threats highlight
the urgent and significant privacy risks of explanations and calls attention
for new privacy preservation techniques that balance the dual-requirement for
AI explainability and privacy.
- Abstract(参考訳): 医療から雇用まで、多くの領域における人工知能(AI)の展開の成功には、特にモデル説明とプライバシにおいて、責任ある使用が必要である。
説明可能な人工知能(XAI)は、ユーザーがモデル決定を理解するのに役立つ情報を提供するが、この追加の知識は、プライバシー攻撃のさらなるリスクを露呈する。
したがって、説明を提供することはプライバシーを害する。
画像ベースモデルインバージョンアタックに対するこのリスクを調査し,モデル説明からプライベートイメージデータを再構成する性能を向上させる複数のアタックアーキテクチャを同定した。
対象モデルのみを用いた場合よりもはるかに高いインバージョン性能を実現するマルチモーダル変換CNNアーキテクチャを開発した。
これらのXAI対応インバージョンモデルは、画像説明における空間的知識を活用するために設計された。
どの説明がプライバシーリスクが高いかを理解するために,さまざまな説明タイプや要因が逆性能に与える影響を分析した。
説明を提供していないモデルもいくつかあるが,注意伝達による代理モデルの説明を活用し,説明不能な対象モデルにおいてもインバージョン性能が向上することを示す。
この方法は、まずターゲット予測から説明を反転させ、次にターゲット画像を再構成する。
これらの脅威は、説明の緊急かつ重要なプライバシーリスクを強調し、AI説明可能性とプライバシーの二重要求をバランスさせる新しいプライバシー保護技術への注意を呼びかける。
関連論文リスト
- Explaining the Model, Protecting Your Data: Revealing and Mitigating the Data Privacy Risks of Post-Hoc Model Explanations via Membership Inference [26.596877194118278]
特徴帰属説明に基づく2つの新たなメンバーシップ推論攻撃を提案する。
最適化された個人用微調整は、上記の攻撃の成功を著しく減少させることがわかった。
論文 参考訳(メタデータ) (2024-07-24T22:16:37Z) - Privacy Implications of Explainable AI in Data-Driven Systems [0.0]
機械学習(ML)モデルは、解釈可能性の欠如に悩まされる。
透明性の欠如は、しばしばMLモデルのブラックボックスの性質と呼ばれ、信頼を損なう。
XAI技術は、内部の意思決定プロセスを説明するためのフレームワークと方法を提供することによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-06-22T08:51:58Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Black-box Attacks on Image Activity Prediction and its Natural Language
Explanations [27.301741710016223]
説明可能なAI(XAI)手法は、ディープニューラルネットワークの決定プロセスを記述することを目的としている。
Visual XAIメソッドは、ホワイトボックスやグレイボックスの攻撃に弱いことが示されている。
我々は,最終出力にのみアクセスすることで,行動認識モデルの説明を操作できる敵画像を作成することができることを示す。
論文 参考訳(メタデータ) (2023-09-30T21:56:43Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - XRand: Differentially Private Defense against Explanation-Guided Attacks [19.682368614810756]
本稿では,局所微分プライバシー(LDP)を実現するための新しい概念を紹介する。
本機構は,説明の忠実さを維持しつつ,敵が最も重要な特徴について学べる情報を制限するものであることを示す。
論文 参考訳(メタデータ) (2022-12-08T18:23:59Z) - The privacy issue of counterfactual explanations: explanation linkage
attacks [0.0]
本稿では、インスタンスベースの戦略をデプロイして、偽説明を見つける際に発生する説明リンク攻撃について紹介する。
このような攻撃に対抗するため、我々はk匿名の偽物説明を提案し、これらのk匿名の偽物説明の有効性を評価するための新しい指標として純粋性を導入する。
この結果から,データセット全体ではなく,k-匿名で説明を行うことが,説明の質に有益であることが示唆された。
論文 参考訳(メタデータ) (2022-10-21T15:44:19Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。