論文の概要: SNAP: Efficient Extraction of Private Properties with Poisoning
- arxiv url: http://arxiv.org/abs/2208.12348v2
- Date: Wed, 21 Jun 2023 20:35:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 18:13:42.854379
- Title: SNAP: Efficient Extraction of Private Properties with Poisoning
- Title(参考訳): SNAP: 中毒による個人資産の効率的な抽出
- Authors: Harsh Chaudhari, John Abascal, Alina Oprea, Matthew Jagielski, Florian
Tram\`er, Jonathan Ullman
- Abstract要約: プロパティ推論攻撃により、敵は機械学習モデルからトレーニングデータセットのグローバルプロパティを抽出することができる。
本稿では,攻撃者がトレーニングデータセットのサブセットに毒を塗布し,訓練対象モデルに問い合わせるプロパティ推論攻撃の設定について考察する。
毒性下でのモデル信頼度の理論解析により, SNAPの効率的な特性推定攻撃を設計した。
- 参考スコア(独自算出の注目度): 15.772085158452784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Property inference attacks allow an adversary to extract global properties of
the training dataset from a machine learning model. Such attacks have privacy
implications for data owners sharing their datasets to train machine learning
models. Several existing approaches for property inference attacks against deep
neural networks have been proposed, but they all rely on the attacker training
a large number of shadow models, which induces a large computational overhead.
In this paper, we consider the setting of property inference attacks in which
the attacker can poison a subset of the training dataset and query the trained
target model. Motivated by our theoretical analysis of model confidences under
poisoning, we design an efficient property inference attack, SNAP, which
obtains higher attack success and requires lower amounts of poisoning than the
state-of-the-art poisoning-based property inference attack by Mahloujifar et
al. For example, on the Census dataset, SNAP achieves 34% higher success rate
than Mahloujifar et al. while being 56.5x faster. We also extend our attack to
infer whether a certain property was present at all during training and
estimate the exact proportion of a property of interest efficiently. We
evaluate our attack on several properties of varying proportions from four
datasets and demonstrate SNAP's generality and effectiveness. An open-source
implementation of SNAP can be found at https://github.com/johnmath/snap-sp23.
- Abstract(参考訳): プロパティ推論攻撃により、敵は機械学習モデルからトレーニングデータセットのグローバルプロパティを抽出できる。
このような攻撃は、データセットを共有するデータ所有者が機械学習モデルをトレーニングする上で、プライバシに影響を及ぼす。
ディープニューラルネットワークに対するプロパティ推論攻撃に対する既存のアプローチはいくつか提案されているが、それらはすべて攻撃者が大量のシャドーモデルをトレーニングすることに依存している。
本稿では,攻撃者がトレーニングデータセットのサブセットに毒を塗布し,訓練対象モデルに問い合わせるプロパティ推論攻撃の設定について考察する。
筆者らは, 毒性下でのモデル信頼度を理論的に解析し, 攻撃成功率が高く, マカルージファールらによる有害性推論攻撃よりも低量の毒性を必要とするSNAPを設計した。
例えば、国勢調査データセットでは、SNAPはMahloujifarらよりも34%高い成功率を達成し、56.5倍高速である。
また、トレーニング中に特定のプロパティが存在するかどうかを推測するために攻撃を拡張し、興味のあるプロパティの正確な割合を効率的に見積もる。
4つのデータセットから異なる割合のいくつかの特性に対する攻撃を評価し,SNAPの汎用性と有効性を示す。
SNAPのオープンソース実装はhttps://github.com/johnmath/snap-sp23で見ることができる。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Property inference attack; Graph neural networks; Privacy attacks and
defense; Trustworthy machine learning [5.598383724295497]
機械学習モデルは、トレーニングデータに関する情報を漏洩するプライバシー攻撃に弱い。
本研究では,プロパティ推論攻撃(PIA)と呼ばれる,特定の種類のプライバシ攻撃に焦点を当てる。
我々は、グラフニューラルネットワーク(GNN)を対象モデルとし、トレーニンググラフ内の特定のノードとリンクの分布を目標特性とみなす。
論文 参考訳(メタデータ) (2022-09-02T14:59:37Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - Formalizing and Estimating Distribution Inference Risks [11.650381752104298]
プロパティ推論攻撃の形式的および一般的な定義を提案する。
以上の結果から,安価なメタクラス化攻撃は高価なメタクラス化攻撃と同じくらい効果的であることが示唆された。
我々は、最先端のプロパティ推論攻撃を畳み込みニューラルネットワークに拡張する。
論文 参考訳(メタデータ) (2021-09-13T14:54:39Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Property Inference Attacks on Convolutional Neural Networks: Influence
and Implications of Target Model's Complexity [1.2891210250935143]
プロパティ推論攻撃は、トレーニングデータセットに関する与えられたモデルプロパティをモデルの主な目標とは無関係に推測することを目的としている。
本稿では,ターゲットモデルの複雑性が攻撃の精度に及ぼす影響について検討する。
その結果,ターゲットモデルの複雑さとは無関係に,プライバシ侵害のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-04-27T09:19:36Z) - Property Inference From Poisoning [15.105224455937025]
プロパティ推論攻撃は、トレーニングされたモデルにアクセスでき、トレーニングデータのグローバルな統計を抽出しようとする敵を考える。
本研究では,モデルの情報漏洩を増大させることが目的とする中毒攻撃について検討する。
以上より,毒殺攻撃は情報漏洩を著しく促進し,敏感なアプリケーションにおいてより強力な脅威モデルと見なされるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-01-26T20:35:28Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。