論文の概要: Unveiling the Unseen: Exploring Whitebox Membership Inference through the Lens of Explainability
- arxiv url: http://arxiv.org/abs/2407.01306v1
- Date: Mon, 1 Jul 2024 14:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:20:18.364122
- Title: Unveiling the Unseen: Exploring Whitebox Membership Inference through the Lens of Explainability
- Title(参考訳): 未知の発見:説明可能性のレンズを通してホワイトボックスメンバーシップ推論を探索する
- Authors: Chenxi Li, Abhinav Kumar, Zhen Guo, Jie Hou, Reza Tourani,
- Abstract要約: 提案手法は, 生データの最も影響力のある特徴を識別し, メンバーシップ推論攻撃を成功に導くための, 攻撃駆動型説明可能なフレームワークを提案する。
提案したMIAは,最先端MIAの最大26%の改善を示す。
- 参考スコア(独自算出の注目度): 10.632831321114502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing prominence of deep learning applications and reliance on personalized data underscore the urgent need to address privacy vulnerabilities, particularly Membership Inference Attacks (MIAs). Despite numerous MIA studies, significant knowledge gaps persist, particularly regarding the impact of hidden features (in isolation) on attack efficacy and insufficient justification for the root causes of attacks based on raw data features. In this paper, we aim to address these knowledge gaps by first exploring statistical approaches to identify the most informative neurons and quantifying the significance of the hidden activations from the selected neurons on attack accuracy, in isolation and combination. Additionally, we propose an attack-driven explainable framework by integrating the target and attack models to identify the most influential features of raw data that lead to successful membership inference attacks. Our proposed MIA shows an improvement of up to 26% on state-of-the-art MIA.
- Abstract(参考訳): ディープラーニングアプリケーションの普及とパーソナライズされたデータへの依存は、プライバシの脆弱性、特にメンバーシップ推論攻撃(MIA)に対処する緊急の必要性を浮き彫りにしている。
多くのMIA研究にもかかわらず、特に隠れた特徴(孤立状態)が攻撃効果に与える影響や、生データの特徴に基づく攻撃の根本原因の正当化に不十分な点に関して、重要な知識ギャップが持続している。
本稿では,まず,最も情報性の高いニューロンを同定するための統計的アプローチと,選択したニューロンからの隠れ活性化の意義を,孤立と組み合わせによる攻撃精度において定量化することで,これらの知識ギャップに対処することを目的とする。
さらに,ターゲットモデルとアタックモデルを統合したアタック駆動型説明可能なフレームワークを提案する。
提案したMIAは,最先端MIAの最大26%の改善を示す。
関連論文リスト
- GLiRA: Black-Box Membership Inference Attack via Knowledge Distillation [4.332441337407564]
我々は,会員推論攻撃に対する感受性と,蒸留による攻撃を盗む機能に対する脆弱性との関係について検討する。
我々は,ブラックボックスニューラルネットワークに対するメンバシップ推論攻撃に対する蒸留誘導型アプローチであるGLiRAを提案する。
提案手法は,複数の画像分類データセットおよびモデルにまたがって評価され,知識蒸留によって誘導された場合の確率比攻撃が,ブラックボックス設定における最先端の会員推論攻撃よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-13T08:52:04Z) - Model Stealing Attack against Graph Classification with Authenticity,
Uncertainty and Diversity [85.1927483219819]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Fundamental Limits of Membership Inference Attacks on Machine Learning Models [29.367087890055995]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがトレーニングデータセットの一部であったかどうかを明らかにすることができる。
本稿では、機械学習モデルにおけるMIAに関する基本的な統計的制限を探索することによって理論的保証を提供する。
論文 参考訳(メタデータ) (2023-10-20T19:32:54Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Characterizing the Evasion Attackability of Multi-label Classifiers [37.00606062677375]
マルチラベル学習システムにおける脱出攻撃は、興味深いが、広く目撃されているが、まれな研究トピックである。
マルチラベルの敵対的脅威の攻撃可能性を決定する重要な要因を特徴づけることが、脆弱性の起源を解釈する鍵である。
グラディラベル空間探索による効率的な経験的攻撃性推定器を提案する。
論文 参考訳(メタデータ) (2020-12-17T07:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。