論文の概要: Unveiling the Unseen: Exploring Whitebox Membership Inference through the Lens of Explainability
- arxiv url: http://arxiv.org/abs/2407.01306v1
- Date: Mon, 1 Jul 2024 14:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:20:18.364122
- Title: Unveiling the Unseen: Exploring Whitebox Membership Inference through the Lens of Explainability
- Title(参考訳): 未知の発見:説明可能性のレンズを通してホワイトボックスメンバーシップ推論を探索する
- Authors: Chenxi Li, Abhinav Kumar, Zhen Guo, Jie Hou, Reza Tourani,
- Abstract要約: 提案手法は, 生データの最も影響力のある特徴を識別し, メンバーシップ推論攻撃を成功に導くための, 攻撃駆動型説明可能なフレームワークを提案する。
提案したMIAは,最先端MIAの最大26%の改善を示す。
- 参考スコア(独自算出の注目度): 10.632831321114502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing prominence of deep learning applications and reliance on personalized data underscore the urgent need to address privacy vulnerabilities, particularly Membership Inference Attacks (MIAs). Despite numerous MIA studies, significant knowledge gaps persist, particularly regarding the impact of hidden features (in isolation) on attack efficacy and insufficient justification for the root causes of attacks based on raw data features. In this paper, we aim to address these knowledge gaps by first exploring statistical approaches to identify the most informative neurons and quantifying the significance of the hidden activations from the selected neurons on attack accuracy, in isolation and combination. Additionally, we propose an attack-driven explainable framework by integrating the target and attack models to identify the most influential features of raw data that lead to successful membership inference attacks. Our proposed MIA shows an improvement of up to 26% on state-of-the-art MIA.
- Abstract(参考訳): ディープラーニングアプリケーションの普及とパーソナライズされたデータへの依存は、プライバシの脆弱性、特にメンバーシップ推論攻撃(MIA)に対処する緊急の必要性を浮き彫りにしている。
多くのMIA研究にもかかわらず、特に隠れた特徴(孤立状態)が攻撃効果に与える影響や、生データの特徴に基づく攻撃の根本原因の正当化に不十分な点に関して、重要な知識ギャップが持続している。
本稿では,まず,最も情報性の高いニューロンを同定するための統計的アプローチと,選択したニューロンからの隠れ活性化の意義を,孤立と組み合わせによる攻撃精度において定量化することで,これらの知識ギャップに対処することを目的とする。
さらに,ターゲットモデルとアタックモデルを統合したアタック駆動型説明可能なフレームワークを提案する。
提案したMIAは,最先端MIAの最大26%の改善を示す。
関連論文リスト
- Membership Inference Attacks and Defenses in Federated Learning: A Survey [25.581491871183815]
フェデレートラーニング(Federated Learning)は、クライアントがローカルにモデルをトレーニングし、モデル更新を共有してグローバルモデルを開発する、分散機械学習アプローチである。
これは、特定のサンプルがトレーニングセットの一部であるかどうかを判断することで、クライアントのプライバシをターゲットとする。
これらの攻撃は、医療システム内の医療診断など、現実世界の応用における機密情報を侵害する可能性がある。
論文 参考訳(メタデータ) (2024-12-09T02:39:58Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Membership Inference Attacks Against In-Context Learning [26.57639819629732]
In-Context Learning (ICL) に適した最初のメンバシップ推論攻撃を提案する。
様々な制約シナリオに合わせた4つの攻撃戦略を提案する。
本稿では,データ,命令,出力を対象とする3つの潜在的防御について検討する。
論文 参考訳(メタデータ) (2024-09-02T17:23:23Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - GLiRA: Black-Box Membership Inference Attack via Knowledge Distillation [4.332441337407564]
我々は,会員推論攻撃に対する感受性と,蒸留による攻撃を盗む機能に対する脆弱性との関係について検討する。
我々は,ブラックボックスニューラルネットワークに対するメンバシップ推論攻撃に対する蒸留誘導型アプローチであるGLiRAを提案する。
提案手法は,複数の画像分類データセットおよびモデルにまたがって評価され,知識蒸留によって誘導された場合の確率比攻撃が,ブラックボックス設定における最先端の会員推論攻撃よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-13T08:52:04Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Fundamental Limits of Membership Inference Attacks on Machine Learning Models [29.367087890055995]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがトレーニングデータセットの一部であったかどうかを明らかにすることができる。
本稿では、機械学習モデルにおけるMIAに関する基本的な統計的制限を探索することによって理論的保証を提供する。
論文 参考訳(メタデータ) (2023-10-20T19:32:54Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。