論文の概要: Blind Baselines Beat Membership Inference Attacks for Foundation Models
- arxiv url: http://arxiv.org/abs/2406.16201v1
- Date: Sun, 23 Jun 2024 19:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 18:34:57.475206
- Title: Blind Baselines Beat Membership Inference Attacks for Foundation Models
- Title(参考訳): ブラインド・ベースライン、ファンデーションモデルでメンバーシップ推論攻撃に勝利
- Authors: Debeshee Das, Jie Zhang, Florian Tramèr,
- Abstract要約: メンバーシップ推論(MI)攻撃は、データサンプルが機械学習モデルのトレーニングに使用されたかどうかを判断しようとする。
未知のWebデータに基づいてトレーニングされた基礎モデルに対して、MI攻撃は著作権のあるトレーニング材料の検出、テストセットの汚染の測定、あるいは監査マシンのアンラーニングに使用できる。
基礎モデルに対するMI攻撃の評価は, 異なる分布からメンバーや非メンバーをサンプリングするため, 欠陥があることが示されている。
- 参考スコア(独自算出の注目度): 24.010279957557252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Membership inference (MI) attacks try to determine if a data sample was used to train a machine learning model. For foundation models trained on unknown Web data, MI attacks can be used to detect copyrighted training materials, measure test set contamination, or audit machine unlearning. Unfortunately, we find that evaluations of MI attacks for foundation models are flawed, because they sample members and non-members from different distributions. For 8 published MI evaluation datasets, we show that blind attacks -- that distinguish the member and non-member distributions without looking at any trained model -- outperform state-of-the-art MI attacks. Existing evaluations thus tell us nothing about membership leakage of a foundation model's training data.
- Abstract(参考訳): メンバーシップ推論(MI)攻撃は、データサンプルが機械学習モデルのトレーニングに使用されたかどうかを判断しようとする。
未知のWebデータに基づいてトレーニングされた基礎モデルに対して、MI攻撃は著作権のあるトレーニング材料の検出、テストセットの汚染の測定、あるいは監査マシンのアンラーニングに使用できる。
残念ながら、異なる分布からメンバーや非メンバーをサンプリングするため、基礎モデルに対するMI攻撃の評価には欠陥がある。
公開された8つのMI評価データセットについて、トレーニングされたモデルを見ることなくメンバと非メンバの分布を区別するブラインドアタックが、最先端のMIアタックを上回っていることを示す。
既存の評価結果からは,基礎モデルのトレーニングデータのメンバシップリークについては何も示されていない。
関連論文リスト
- Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Can Membership Inferencing be Refuted? [31.31060116447964]
本研究では,実際に会員推論攻撃の信頼性について検討する。
モデルオーナは,データポイント$x$のメンバシップ推論テストの結果に対して,検証の証明を構築することで,妥当に反証できることを示す。
本研究の結果は,実際に会員推論攻撃がもたらす影響を再評価するものである。
論文 参考訳(メタデータ) (2023-03-07T04:36:35Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - On the Discredibility of Membership Inference Attacks [11.172550334631921]
サンプルがトレーニングセットの一部であったかどうかを判断するために、メンバシップ推論攻撃が提案されている。
MIモデルは、メンバーサンプルの隣り合う非メンバーサンプルをメンバーとして誤分類することも多い。
本研究は,現在のメンバーシップ推論攻撃は記憶されたサブ集団を識別できるが,トレーニング中にどのサブ集団が使用されたのかを確実に特定できない。
論文 参考訳(メタデータ) (2022-12-06T01:48:27Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Investigating Membership Inference Attacks under Data Dependencies [26.70764798408236]
プライバシーに敏感なデータに基づく機械学習モデルのトレーニングが、プライバシーに深刻な影響を及ぼす可能性のある新たな攻撃の扉を開いた。
そのような攻撃の1つは、メンバーシップ推論攻撃 (MIA) であり、特定のデータポイントがモデルをトレーニングするために使用されたかどうかを公開する。
我々は、訓練セットのすべてのメンバーと非メンバーが独立して同一に分散しているという制限的な仮定の下で、防衛を評価した。
論文 参考訳(メタデータ) (2020-10-23T00:16:46Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - On the Difficulty of Membership Inference Attacks [11.172550334631921]
近年の研究では,深層モデルに対するMI攻撃が提案されている。
明らかな成功にもかかわらず、これらの研究は正のクラス(メンバークラス)の正確さ、正確さ、リコールのみを報告している。
報告されていない偽陽性率や誤警報率(FAR)に悩まされているため,MI攻撃の報告方法が誤解を招くことが多い。
論文 参考訳(メタデータ) (2020-05-27T23:09:17Z) - Membership Inference Attacks and Defenses in Classification Models [19.498313593713043]
分類器に対するMI攻撃について検討する。
我々は、MI攻撃に対するモデルの脆弱性が一般化ギャップと密接に関連していることを発見した。
トレーニング精度を意図的に低減し,ギャップを埋めることを目的としたMI攻撃に対する防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T12:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。