論文の概要: Range Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2408.05131v2
- Date: Sat, 26 Oct 2024 08:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 12:00:36.081397
- Title: Range Membership Inference Attacks
- Title(参考訳): レンジメンバーシップ推論攻撃
- Authors: Jiashu Tao, Reza Shokri,
- Abstract要約: 本研究では,RaMIA(Ra Range Membering Inference attack)のクラスを導入し,モデルが特定の範囲の任意のデータに対してトレーニングされたかどうかを検証した。
各種データ上でのMIAよりも,プライバシ損失をより正確に,包括的に捉えることができることを示す。
- 参考スコア(独自算出の注目度): 17.28638946021444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models can leak private information about their training data, but the standard methods to measure this risk, based on membership inference attacks (MIAs), have a major limitation. They only check if a given data point \textit{exactly} matches a training point, neglecting the potential of similar or partially overlapping data revealing the same private information. To address this issue, we introduce the class of range membership inference attacks (RaMIAs), testing if the model was trained on any data in a specified range (defined based on the semantics of privacy). We formulate the RaMIAs game and design a principled statistical test for its complex hypotheses. We show that RaMIAs can capture privacy loss more accurately and comprehensively than MIAs on various types of data, such as tabular, image, and language. RaMIA paves the way for a more comprehensive and meaningful privacy auditing of machine learning algorithms.
- Abstract(参考訳): 機械学習モデルは、トレーニングデータに関するプライベート情報をリークする可能性があるが、このリスクを測定する標準的な方法は、メンバシップ推論攻撃(MIA)に基づいており、大きな制限がある。
彼らは、与えられたデータポイント \textit{exactly} がトレーニングポイントと一致するかどうかのみチェックし、同じプライベート情報を示す類似または部分的に重複するデータの可能性を無視する。
この問題に対処するために、RaMIA(Ra Range Memberation Inference attack)のクラスを導入し、モデルが特定の範囲の任意のデータ(プライバシのセマンティクスに基づいて定義された)でトレーニングされたかどうかをテストする。
我々は、RaMIAsのゲームを定式化し、その複雑な仮説に対する原理的な統計的試験を設計する。
また,RaMIAは,表や画像,言語など,さまざまな種類のデータに対して,MIAよりも正確かつ包括的にプライバシ損失を捉えることができることを示す。
RaMIAは、機械学習アルゴリズムのより包括的で意味のあるプライバシー監査の道を開く。
関連論文リスト
- Data Lineage Inference: Uncovering Privacy Vulnerabilities of Dataset Pruning [31.888075470799908]
余剰集合内のデータがモデルトレーニングの前にのみ使用される場合でも、攻撃によってプルーニングフェーズのメンバシップ状態が検出可能であることを示す。
我々は、Data-Centric Membership Inferenceと呼ばれる新しいタスクを導入し、Data Lineage Inferenceというデータ中心のプライバシ推論パラダイムを提案する。
異なるプライバシリークのレベルが異なり、同じプルーニング手法でも異なるプライバシリスクを異なるプルーニング率で提示できることがわかった。
論文 参考訳(メタデータ) (2024-11-24T11:46:59Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - Detecting Pretraining Data from Large Language Models [90.12037980837738]
事前学習データ検出問題について検討する。
事前学習データを知ることなく、テキスト片とLCMへのブラックボックスアクセスを条件に、モデルが提供されたテキストでトレーニングされたかどうかを判断できますか?
簡単な仮説に基づく新しい検出手法Min-K% Probを提案する。
論文 参考訳(メタデータ) (2023-10-25T17:21:23Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - SHAPr: An Efficient and Versatile Membership Privacy Risk Metric for
Machine Learning [13.952586561595473]
機械学習(ML)モデルのトレーニングに使用されるデータは、センシティブである。
メンバーシップ推論攻撃(MIA)は、特定のデータレコードがMLモデルのトレーニングに使用されたかどうかを判断し、メンバーシップのプライバシを侵害するリスクを負う。
本稿では,Shapley値を用いて個別のトレーニングデータ記録の記憶を定量化するSHAPrを提案する。
論文 参考訳(メタデータ) (2021-12-04T03:45:49Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Investigating Membership Inference Attacks under Data Dependencies [26.70764798408236]
プライバシーに敏感なデータに基づく機械学習モデルのトレーニングが、プライバシーに深刻な影響を及ぼす可能性のある新たな攻撃の扉を開いた。
そのような攻撃の1つは、メンバーシップ推論攻撃 (MIA) であり、特定のデータポイントがモデルをトレーニングするために使用されたかどうかを公開する。
我々は、訓練セットのすべてのメンバーと非メンバーが独立して同一に分散しているという制限的な仮定の下で、防衛を評価した。
論文 参考訳(メタデータ) (2020-10-23T00:16:46Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Trade-offs between membership privacy & adversarially robust learning [13.37805637358556]
標準モデルがロバストモデルよりもはるかに過度に適合する設定を特定します。
オーバーフィッティングの度合いは、トレーニングに利用可能なデータの量に依存する。
論文 参考訳(メタデータ) (2020-06-08T14:20:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。