論文の概要: l-Leaks: Membership Inference Attacks with Logits
- arxiv url: http://arxiv.org/abs/2205.06469v1
- Date: Fri, 13 May 2022 06:59:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 21:48:33.116024
- Title: l-Leaks: Membership Inference Attacks with Logits
- Title(参考訳): l-Leaks: ログによるメンバシップ推論攻撃
- Authors: Shuhao Li, Yajie Wang, Yuanzhang Li, Yu-an Tan
- Abstract要約: 我々はターゲットモデルへのブラックボックスアクセスに基づく攻撃を提示する。
ターゲットモデルのロジットを学習し、ターゲットモデルとよりよく似たシャドーモデルを構築することにより、シャドーモデルを構築する。
- 参考スコア(独自算出の注目度): 5.663757165885866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) has made unprecedented progress in the past several
decades. However, due to the memorability of the training data, ML is
susceptible to various attacks, especially Membership Inference Attacks (MIAs),
the objective of which is to infer the model's training data. So far, most of
the membership inference attacks against ML classifiers leverage the shadow
model with the same structure as the target model. However, empirical results
show that these attacks can be easily mitigated if the shadow model is not
clear about the network structure of the target model.
In this paper, We present attacks based on black-box access to the target
model. We name our attack \textbf{l-Leaks}. The l-Leaks follows the intuition
that if an established shadow model is similar enough to the target model, then
the adversary can leverage the shadow model's information to predict a target
sample's membership.The logits of the trained target model contain valuable
sample knowledge. We build the shadow model by learning the logits of the
target model and making the shadow model more similar to the target model. Then
shadow model will have sufficient confidence in the member samples of the
target model. We also discuss the effect of the shadow model's different
network structures to attack results. Experiments over different networks and
datasets demonstrate that both of our attacks achieve strong performance.
- Abstract(参考訳): 機械学習(ML)は過去数十年で前例のない進歩を遂げた。
しかし、トレーニングデータの記憶力のため、MLは様々な攻撃、特にモデルのトレーニングデータを推測することを目的としたメンバーシップ推論攻撃(MIA)の影響を受けやすい。
これまでのところ、ML分類器に対するメンバーシップ推論攻撃のほとんどは、ターゲットモデルと同じ構造を持つシャドウモデルを利用している。
しかし、実験の結果、シャドウモデルがターゲットモデルのネットワーク構造について明確でない場合、これらの攻撃は容易に軽減できることが示された。
本稿では,対象モデルに対するブラックボックスアクセスに基づく攻撃について述べる。
我々は攻撃を \textbf{l-leaks} と命名する。
l-Leaksは、確立されたシャドウモデルがターゲットモデルと十分に類似している場合、敵はシャドウモデルの情報を利用してターゲットサンプルのメンバシップを予測するという直感に従っており、訓練されたターゲットモデルのロジットには貴重なサンプル知識が含まれている。
ターゲットモデルのロジットを学習し、シャドウモデルをターゲットモデルに近いものにすることでシャドウモデルを構築する。
次に、シャドーモデルは、ターゲットモデルのメンバサンプルに十分な信頼性を持つ。
また,シャドウモデルの異なるネットワーク構造が攻撃結果に与える影響についても考察する。
異なるネットワークやデータセット上での実験では、どちらの攻撃も高いパフォーマンスを実現している。
関連論文リスト
- Scalable Membership Inference Attacks via Quantile Regression [35.33158339354343]
メンバーシップ推論攻撃は、トレーニングで特定の例が使用されたかどうかに関わらず、トレーニングされたモデルへのブラックボックスアクセスを使用して決定するように設計されている。
本稿では,トレーニングに使用されていない点に対する攻撃下でモデルによって誘導される信頼度スコアの分布に基づいて,量子回帰に基づく新たな攻撃方法を提案する。
論文 参考訳(メタデータ) (2023-07-07T16:07:00Z) - Model Extraction Attack against Self-supervised Speech Models [52.81330435990717]
自己教師付き学習(SSL)音声モデルは、与えられたクリップの有意義な表現を生成する。
モデル抽出攻撃 (MEA) は、しばしば、クエリアクセスのみで被害者モデルの機能を盗む敵を指す。
本稿では,少数のクエリを用いたSSL音声モデルに対するMEA問題について検討する。
論文 参考訳(メタデータ) (2022-11-29T09:28:05Z) - An Efficient Subpopulation-based Membership Inference Attack [11.172550334631921]
我々は、数百のシャドウモデルを訓練する必要のない、根本的に異なるMIアタックアプローチを導入する。
我々は、トレーニングコストを大幅に削減しつつ、最先端の会員推定精度を達成する。
論文 参考訳(メタデータ) (2022-03-04T00:52:06Z) - Get a Model! Model Hijacking Attack Against Machine Learning Models [30.346469782056406]
本稿では,コンピュータビジョンに基づく機械学習モデル,すなわちモデルハイジャック攻撃に対する新たなトレーニング時間攻撃を提案する。
相手はターゲットモデルをハイジャックして、モデル所有者が気づかずに別のタスクを実行することを目的としている。
以上の結果から,2つのモデルハイジャック攻撃が,モデルユーティリティの低下により,高い攻撃成功率を達成できたことが示唆された。
論文 参考訳(メタデータ) (2021-11-08T11:30:50Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Privacy Analysis of Deep Learning in the Wild: Membership Inference
Attacks against Transfer Learning [27.494206948563885]
本稿では,転送学習モデルに対するメンバシップ推論攻撃の最初の体系的評価について述べる。
4つの実世界の画像データセットに対する実験により、メンバーシップ推論が効果的なパフォーマンスを達成できることが示されている。
我々の結果は、実際に機械学習モデルから生じるメンバーシップリスクの深刻さを浮き彫りにした。
論文 参考訳(メタデータ) (2020-09-10T14:14:22Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z) - Membership Inference Attacks Against Object Detection Models [1.0467092641687232]
ブラックボックスオブジェクト検出モデルに対する最初のメンバシップ推論攻撃を示す。
我々は,1段階および2段階検出モデルを用いて訓練した個人機密データの登録状況を明らかにした。
その結果、オブジェクト検出モデルは、他のモデルのような推論攻撃にも弱いことが判明した。
論文 参考訳(メタデータ) (2020-01-12T23:17:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。