論文の概要: User-Level Membership Inference Attack against Metric Embedding Learning
- arxiv url: http://arxiv.org/abs/2203.02077v1
- Date: Fri, 4 Mar 2022 00:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 14:35:14.246410
- Title: User-Level Membership Inference Attack against Metric Embedding Learning
- Title(参考訳): メトリック埋め込み学習に対するユーザレベルメンバーシップ推論攻撃
- Authors: Guoyao Li, Shahbaz Rezaei, and Xin Liu
- Abstract要約: メンバーシップ推論(MI)は、サンプルが犠牲者モデルのトレーニングセットの一部であるかどうかを決定する。
本稿では,対象ユーザからのサンプルがトレーニング中に使用されたかどうかを目標とするユーザレベルMI攻撃を開発する。
- 参考スコア(独自算出の注目度): 8.414720636874106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Membership inference (MI) determines if a sample was part of a victim model
training set. Recent development of MI attacks focus on record-level membership
inference which limits their application in many real-world scenarios. For
example, in the person re-identification task, the attacker (or investigator)
is interested in determining if a user's images have been used during training
or not. However, the exact training images might not be accessible to the
attacker. In this paper, we develop a user-level MI attack where the goal is to
find if any sample from the target user has been used during training even when
no exact training sample is available to the attacker. We focus on metric
embedding learning due to its dominance in person re-identification, where
user-level MI attack is more sensible. We conduct an extensive evaluation on
several datasets and show that our approach achieves high accuracy on
user-level MI task.
- Abstract(参考訳): メンバーシップ推論(MI)は、サンプルが犠牲者モデルトレーニングセットの一部であるかどうかを決定する。
MI攻撃の最近の発展は、多くの実世界のシナリオにおける適用を制限するレコードレベルのメンバシップ推論に焦点を当てている。
例えば、人物再識別タスクでは、攻撃者(または調査員)は、トレーニング中にユーザーの画像が使用されたかどうかを判断することに興味がある。
しかし、正確な訓練画像は攻撃者がアクセスできない可能性がある。
本稿では,攻撃者が正確なトレーニングサンプルを入手できなくても,対象ユーザからのサンプルがトレーニング中に使用されたかどうかを確認することを目的とした,ユーザレベルのmi攻撃を開発した。
ユーザレベルのMI攻撃がより賢明な,個人の再識別における優位性から,メトリック埋め込み学習に着目する。
我々は,複数のデータセットに対して広範囲な評価を行い,ユーザレベルのMIタスクに対して高い精度を実現することを示す。
関連論文リスト
- Blind Baselines Beat Membership Inference Attacks for Foundation Models [24.010279957557252]
メンバーシップ推論(MI)攻撃は、データサンプルが機械学習モデルのトレーニングに使用されたかどうかを判断しようとする。
未知のWebデータに基づいてトレーニングされた基礎モデルに対して、MI攻撃は著作権のあるトレーニング材料の検出、テストセットの汚染の測定、あるいは監査マシンのアンラーニングに使用できる。
基礎モデルに対するMI攻撃の評価は, 異なる分布からメンバーや非メンバーをサンプリングするため, 欠陥があることが示されている。
論文 参考訳(メタデータ) (2024-06-23T19:40:11Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - On the Discredibility of Membership Inference Attacks [11.172550334631921]
サンプルがトレーニングセットの一部であったかどうかを判断するために、メンバシップ推論攻撃が提案されている。
MIモデルは、メンバーサンプルの隣り合う非メンバーサンプルをメンバーとして誤分類することも多い。
本研究は,現在のメンバーシップ推論攻撃は記憶されたサブ集団を識別できるが,トレーニング中にどのサブ集団が使用されたのかを確実に特定できない。
論文 参考訳(メタデータ) (2022-12-06T01:48:27Z) - Membership Inference Attack Using Self Influence Functions [43.10140199124212]
メンバ推論(MI)攻撃は、特定のデータサンプルが機械学習モデルのトレーニングに使用されたかどうかを判断することを目的としている。
我々は,MI予測を行うために,影響関数,具体的にはサンプルの自己影響スコアを利用する新しいMI攻撃を提案する。
本手法は,データ拡張によるトレーニングと無用なトレーニングの両面において,新たな最先端性を実現する。
論文 参考訳(メタデータ) (2022-05-26T23:52:26Z) - Identifying a Training-Set Attack's Target Using Renormalized Influence
Estimation [11.663072799764542]
本研究は、特定のテストインスタンスがトレーニングセットアタックのターゲットであるかどうかを判定するターゲット識別タスクを提案する。
単一の攻撃方法やデータモダリティではなく、各トレーニングインスタンスのモデル予測への貢献度を定量化するインフルエンス推定に基づいて構築する。
論文 参考訳(メタデータ) (2022-01-25T02:36:34Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z) - On the Difficulty of Membership Inference Attacks [11.172550334631921]
近年の研究では,深層モデルに対するMI攻撃が提案されている。
明らかな成功にもかかわらず、これらの研究は正のクラス(メンバークラス)の正確さ、正確さ、リコールのみを報告している。
報告されていない偽陽性率や誤警報率(FAR)に悩まされているため,MI攻撃の報告方法が誤解を招くことが多い。
論文 参考訳(メタデータ) (2020-05-27T23:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。