論文の概要: On the (In)Feasibility of Attribute Inference Attacks on Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2103.07101v1
- Date: Fri, 12 Mar 2021 06:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:11:07.483999
- Title: On the (In)Feasibility of Attribute Inference Attacks on Machine
Learning Models
- Title(参考訳): マシンラーニングモデルにおける属性推論攻撃の(in)実現性について
- Authors: Benjamin Zi Hao Zhao, Aviral Agrawal, Catisha Coburn, Hassan Jameel
Asghar, Raghav Bhaskar, Mohamed Ali Kaafar, Darren Webb, and Peter Dickinson
- Abstract要約: 分類モデルがメンバーシップ推論攻撃に結びついたとしても、アトリビュート推論攻撃の影響を受けにくいことが示されています。
メンバーシップ推論攻撃は,この強力な設定ではメンバーシップを推測できないことを示す。
属性推論の緩やかな概念の下では、真の属性に近い属性を推測することは可能であることを示す。
- 参考スコア(独自算出の注目度): 4.1245935888536325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With an increase in low-cost machine learning APIs, advanced machine learning
models may be trained on private datasets and monetized by providing them as a
service. However, privacy researchers have demonstrated that these models may
leak information about records in the training dataset via membership inference
attacks. In this paper, we take a closer look at another inference attack
reported in literature, called attribute inference, whereby an attacker tries
to infer missing attributes of a partially known record used in the training
dataset by accessing the machine learning model as an API. We show that even if
a classification model succumbs to membership inference attacks, it is unlikely
to be susceptible to attribute inference attacks. We demonstrate that this is
because membership inference attacks fail to distinguish a member from a nearby
non-member. We call the ability of an attacker to distinguish the two (similar)
vectors as strong membership inference. We show that membership inference
attacks cannot infer membership in this strong setting, and hence inferring
attributes is infeasible. However, under a relaxed notion of attribute
inference, called approximate attribute inference, we show that it is possible
to infer attributes close to the true attributes. We verify our results on
three publicly available datasets, five membership, and three attribute
inference attacks reported in literature.
- Abstract(参考訳): 低コストの機械学習APIの増加に伴い、高度な機械学習モデルはプライベートデータセットでトレーニングされ、サービスとして提供することで収益化される。
しかし、プライバシ研究者は、これらのモデルがメンバーシップ推論攻撃によってトレーニングデータセット内のレコードに関する情報を漏洩する可能性があることを実証した。
本稿では、属性推論と呼ばれる文献で報告されている別の推論攻撃について、機械学習モデルにAPIとしてアクセスすることで、トレーニングデータセットで使用される部分的に知られているレコードの欠落した属性を推論しようとする。
分類モデルがメンバーシップ推論攻撃に結びついたとしても、アトリビュート推論攻撃の影響を受けにくいことが示されています。
これは、会員推論攻撃がメンバーを近隣の非メンバーと区別できないためである。
我々は攻撃者が2つの(類似した)ベクトルを強いメンバーシップ推論として区別する能力と呼ぶ。
この強い設定では、メンバシップ推論攻撃はメンバーシップを推測できないため、属性の推測は不可能である。
しかし、近似属性推論と呼ばれる緩和された属性推論の概念の下では、真の属性に近い属性を推測することは可能であることを示す。
3つの公開データセット、5つのメンバーシップ、3つの属性推論攻撃の結果を文献で検証します。
関連論文リスト
- FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Are Attribute Inference Attacks Just Imputation? [12.56413718364189]
属性推論攻撃では、敵は一部の訓練記録について部分的に知識を持ち、それらの記録に基づいて訓練されたモデルにアクセスすることができる。
差分的プライベートトレーニングや脆弱な記録をトレーニングから取り除くなど、提案された防御策が、このプライバシーリスクを軽減するものではないことを示す。
論文 参考訳(メタデータ) (2022-09-02T23:13:36Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Are Your Sensitive Attributes Private? Novel Model Inversion Attribute
Inference Attacks on Classification Models [22.569705869469814]
トレーニングデータ中のレコードの非感受性属性を敵が知る場合のモデル反転攻撃に着目した。
我々は,信頼性スコアに基づくモデル逆属性推論攻撃を考案し,その精度を著しく向上させる。
また、ターゲットレコードの他の(非感受性の)属性が敵に未知なシナリオにまで攻撃を拡大します。
論文 参考訳(メタデータ) (2022-01-23T21:27:20Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Formalizing and Estimating Distribution Inference Risks [11.650381752104298]
プロパティ推論攻撃の形式的および一般的な定義を提案する。
以上の結果から,安価なメタクラス化攻撃は高価なメタクラス化攻撃と同じくらい効果的であることが示唆された。
我々は、最先端のプロパティ推論攻撃を畳み込みニューラルネットワークに拡張する。
論文 参考訳(メタデータ) (2021-09-13T14:54:39Z) - Black-box Model Inversion Attribute Inference Attacks on Classification
Models [32.757792981935815]
我々は、トレーニングデータのインスタンスに関する非感受性属性を敵が知るような、ある種類のモデル反転攻撃に焦点を当てる。
信頼モデルに基づく攻撃と信頼スコアに基づく攻撃の2つの新しいモデル反転属性推論攻撃を考案した。
2つの実際のデータセットでトレーニングされた決定木とディープニューラルネットワークの2種類の機械学習モデルに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-12-07T01:14:19Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。