論文の概要: Low-Cost High-Power Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2312.03262v2
- Date: Mon, 26 Feb 2024 16:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 21:38:47.081115
- Title: Low-Cost High-Power Membership Inference Attacks
- Title(参考訳): 低コスト高出力メンバーシップ推論攻撃
- Authors: Sajjad Zarifzadeh, Philippe Liu, Reza Shokri
- Abstract要約: メンバシップ推論攻撃は、機械学習モデルのトレーニングに特定のデータポイントを使用したかどうかを検出することを目的としている。
近年の強力な攻撃は計算コストが高く、様々な条件下では不整合性があり、実際のプライバシーリスク評価には信頼性が低い。
我々は,計算オーバーヘッドを最小限に抑えながら,人口データとモデルのトレーニングデータとを正確に区別する,新しい,効率的で堅牢なメンバシップ推論攻撃(RMIA)を設計する。
- 参考スコア(独自算出の注目度): 17.128537906121355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Membership inference attacks (MIA) aim to detect if a particular data point
was used in training a machine learning model. Recent strong attacks have high
computational costs and inconsistent performance under varying conditions,
rendering them unreliable for practical privacy risk assessment. We design a
novel, efficient, and robust membership inference attack (RMIA) which
accurately differentiates between population data and training data of a model,
with minimal computational overhead. We achieve this by a more accurate
modeling of the null hypothesis setting in our likelihood ratio tests, and
effectively leveraging both reference models and reference data samples from
the population. Our algorithm exhibits superior test power (true-positive rate)
compared to prior methods, throughout the TPR-FPR curve including at extremely
low false-positive rates (as low as 0). Under computation constraints, where
only a limited number of pre-trained reference models (as few as 1) are
available, and also when we vary other elements of the attack, our method
performs exceptionally well, unlike some prior attacks that approach random
guessing. RMIA outperforms the prior work in all configurations of the attack
setup. RMIA lays the algorithmic groundwork for practical yet accurate and
reliable privacy risk analysis in machine learning.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングに特定のデータポイントを使用したかどうかを検出することを目的としている。
近年の強力な攻撃は計算コストが高く、様々な条件下では不整合性があり、実際のプライバシーリスク評価には信頼性が低い。
我々は,人口データとモデルのトレーニングデータを正確に区別し,計算オーバーヘッドを最小限に抑える新しい,効率的でロバストなメンバシップ推論攻撃(rmia)を設計する。
我々は、確率比テストにおいてより正確なヌル仮説設定のモデル化を行い、集団からの参照モデルと参照データサンプルの両方を効果的に活用することでこれを達成する。
本アルゴリズムは,tpr-fpr曲線全体において,従来法と比較して,極めて低い偽陽性率(0。
計算制約下では,事前学習された参照モデル(数例1)の数が限られているだけでなく,攻撃の他の要素が異なっても,ランダムな推測に近づいたいくつかの攻撃とは異なり,この手法は極めてよく機能する。
RMIAは、アタック設定のすべての構成において、以前の作業よりも優れています。
RMIAは、機械学習における実用的かつ正確で信頼性の高いプライバシーリスク分析のためのアルゴリズムの基礎を定めている。
関連論文リスト
- Free Record-Level Privacy Risk Evaluation Through Artifact-Based Methods [6.902279764206365]
本稿では,トレーニング中に利用可能な人工物のみを用いて,リスクの高いサンプルを識別する新しい手法を提案する。
本手法は, サンプルごとの損失トレースを分析し, 脆弱なデータサンプルを同定する。
論文 参考訳(メタデータ) (2024-11-08T18:04:41Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Stabilizing Subject Transfer in EEG Classification with Divergence
Estimation [17.924276728038304]
脳波分類タスクを記述するためのグラフィカルモデルをいくつか提案する。
理想的な訓練シナリオにおいて真であるべき統計的関係を同定する。
我々は、これらの関係を2段階で強制する正規化罰則を設計する。
論文 参考訳(メタデータ) (2023-10-12T23:06:52Z) - Membership Inference Attacks against Language Models via Neighbourhood
Comparison [45.086816556309266]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングデータにデータサンプルが存在するかどうかを予測することを目的としている。
近年の研究では、類似データに基づいてトレーニングされた参照モデルとモデルスコアを比較した参照ベースの攻撃は、MIAの性能を大幅に向上することを示した。
より現実的なシナリオでそれらの性能を調査し、参照モデルのトレーニングに使用されるデータ分布に関して非常に脆弱であることを示す。
論文 参考訳(メタデータ) (2023-05-29T07:06:03Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。