論文の概要: OSLO: One-Shot Label-Only Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2405.16978v1
- Date: Mon, 27 May 2024 09:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 16:11:45.356672
- Title: OSLO: One-Shot Label-Only Membership Inference Attacks
- Title(参考訳): OSLO:One-Shot Label専用メンバーシップ推論攻撃
- Authors: Yuefeng Peng, Jaechul Roh, Subhransu Maji, Amir Houmansadr,
- Abstract要約: One-Shot Label-Only (OSLO) メンバシップ推論攻撃 (MIAs)
我々は,One-Shot Label-Only (OSLO) メンバシップ推論攻撃 (MIAs) を導入する。
- 参考スコア(独自算出の注目度): 29.40766098090706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce One-Shot Label-Only (OSLO) membership inference attacks (MIAs), which accurately infer a given sample's membership in a target model's training set with high precision using just \emph{a single query}, where the target model only returns the predicted hard label. This is in contrast to state-of-the-art label-only attacks which require $\sim6000$ queries, yet get attack precisions lower than OSLO's. OSLO leverages transfer-based black-box adversarial attacks. The core idea is that a member sample exhibits more resistance to adversarial perturbations than a non-member. We compare OSLO against state-of-the-art label-only attacks and demonstrate that, despite requiring only one query, our method significantly outperforms previous attacks in terms of precision and true positive rate (TPR) under the same false positive rates (FPR). For example, compared to previous label-only MIAs, OSLO achieves a TPR that is 7$\times$ to 28$\times$ stronger under a 0.1\% FPR on CIFAR10 for a ResNet model. We evaluated multiple defense mechanisms against OSLO.
- Abstract(参考訳): 対象モデルのトレーニングセットにおけるサンプルのメンバシップを,単に \emph{a single query} を用いて高精度に推定し,予測されたハードラベルのみを返すOne-Shot Label-Only (OSLO) メンバシップ推論攻撃(MIAs)を導入する。
これは、$\sim6000$クエリを必要とする最先端のラベルのみの攻撃とは対照的だが、OSLOよりも攻撃精度が低い。
OSLOは転送ベースのブラックボックス攻撃を利用する。
中心となる考え方は、メンバーのサンプルは非メンバーよりも敵の摂動に対する抵抗が強いことである。
我々はOSLOを最先端のラベルオンリー攻撃と比較し、1つのクエリしか必要とせず、同じ偽陽性率(FPR)の下での精度と真正率(TPR)において、従来の攻撃よりも有意に優れていたことを示す。
例えば、以前のラベルのみのMIAと比較して、OSLOは7$\times$から28$\times$のTPRをResNetモデルのCIFAR10上の0.1\% FPRで達成している。
我々はOSLOに対する防御機構を複数評価した。
関連論文リスト
- Data-Free Hard-Label Robustness Stealing Attack [67.41281050467889]
本稿では,Data-Free Hard-Label Robustness Stealing(DFHL-RS)攻撃について紹介する。
ターゲットモデルのハードラベルをクエリするだけで、モデル精度とロバスト性の両方を盗むことができる。
本手法は,AutoAttackに対して77.86%,頑健な39.51%の精度を実現する。
論文 参考訳(メタデータ) (2023-12-10T16:14:02Z) - Chameleon: Increasing Label-Only Membership Leakage with Adaptive
Poisoning [8.084254242380057]
メンバーシップ推論(MI)攻撃は、特定のデータサンプルがモデルのトレーニングデータセットに含まれているかどうかを判断する。
既存のラベルのみのMI攻撃は、偽陽性率の低い体制での加入を推測するには効果がないことを示す。
本稿では,新たなアダプティブなデータ中毒戦略と効率的なクエリ選択手法を活用する新たな攻撃型Chameleonを提案する。
論文 参考訳(メタデータ) (2023-10-05T18:46:27Z) - Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - Membership inference attack with relative decision boundary distance [9.764492069791991]
メンバシップ推論攻撃は、マシンラーニングにおける最も一般的なプライバシ攻撃の1つだ。
ラベルのみの設定において,ミューティクラス適応型メンバシップ推論攻撃と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T02:29:58Z) - WR-ONE2SET: Towards Well-Calibrated Keyphrase Generation [57.11538133231843]
キーワード生成は、入力文書を要約する短いフレーズを自動的に生成することを目的としている。
最近登場したONE2SETパラダイムは、キーフレーズをセットとして生成し、競争性能を達成した。
本稿では, ONE2SET を拡張した WR-ONE2SET を提案する。
論文 参考訳(メタデータ) (2022-11-13T09:56:24Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - Membership Inference Attacks From First Principles [24.10746844866869]
メンバシップ推論攻撃では、トレーニングされた機械学習モデルをクエリして、モデルのトレーニングデータセットに特定のサンプルが含まれているかどうかを予測することが可能になる。
これらの攻撃は現在、平均ケースの"精度"メトリクスを使用して評価されており、攻撃がトレーニングセットの任意のメンバを確実に識別できるかどうかを特徴付けることができない。
攻撃は偽陽性率の低い偽陽性率で計算することで評価されるべきであり、このような評価を行った場合、ほとんどの事前攻撃は不十分である。
我々の攻撃は偽陽性率の低いところで10倍強力であり、既存の指標に対する以前の攻撃を厳密に支配している。
論文 参考訳(メタデータ) (2021-12-07T08:47:00Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。