論文の概要: On the Vulnerability of Data Points under Multiple Membership Inference
Attacks and Target Models
- arxiv url: http://arxiv.org/abs/2210.16258v1
- Date: Fri, 28 Oct 2022 16:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 16:49:55.224746
- Title: On the Vulnerability of Data Points under Multiple Membership Inference
Attacks and Target Models
- Title(参考訳): 複数のメンバーシップ推論攻撃とターゲットモデルによるデータポイントの脆弱性について
- Authors: Mauro Conti, Jiaxin Li, and Stjepan Picek
- Abstract要約: メンバーシップ推論攻撃(MIA)は、データポイントが機械学習モデルのトレーニングデータに含まれるかどうかを推測する。
本稿では,データポイントの脆弱性の実態を反映した新しい指標を定義する。
平均攻撃精度は0.5から0.9の範囲で、スケーラブルで柔軟なプラットフォームで分析をサポートするために54MIAを実装しています。
- 参考スコア(独自算出の注目度): 30.697733159196044
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Membership Inference Attacks (MIAs) infer whether a data point is in the
training data of a machine learning model. It is a threat while being in the
training data is private information of a data point. MIA correctly infers some
data points as members or non-members of the training data. Intuitively, data
points that MIA accurately detects are vulnerable. Considering those data
points may exist in different target models susceptible to multiple MIAs, the
vulnerability of data points under multiple MIAs and target models is worth
exploring.
This paper defines new metrics that can reflect the actual situation of data
points' vulnerability and capture vulnerable data points under multiple MIAs
and target models. From the analysis, MIA has an inference tendency to some
data points despite a low overall inference performance. Additionally, we
implement 54 MIAs, whose average attack accuracy ranges from 0.5 to 0.9, to
support our analysis with our scalable and flexible platform, Membership
Inference Attacks Platform (VMIAP). Furthermore, previous methods are
unsuitable for finding vulnerable data points under multiple MIAs and different
target models. Finally, we observe that the vulnerability is not characteristic
of the data point but related to the MIA and target model.
- Abstract(参考訳): メンバーシップ推論攻撃(mias)は、データポイントが機械学習モデルのトレーニングデータにあるかどうかを推測する。
トレーニングデータの中にいるのは、データポイントのプライベートな情報である、という脅威です。
MIAは、トレーニングデータのメンバーまたは非メンバーとして、いくつかのデータポイントを正しく推論する。
直感的には、MIAが正確に検出するデータは脆弱である。
これらのデータポイントは、複数のMIAに影響を受けやすい異なるターゲットモデルに存在する可能性があるので、複数のMIAおよびターゲットモデルの下でのデータポイントの脆弱性を調査する価値がある。
本稿では、データポイントの脆弱性の実態を反映し、複数のMIAおよびターゲットモデルの下で脆弱なデータポイントをキャプチャする新しいメトリクスを定義する。
この分析から、MIAは、全体的な推論性能が低いにもかかわらず、いくつかのデータポイントに対する推論傾向を有する。
さらに,平均攻撃精度が0.5~0.9の範囲の54miasを実装し,スケーラブルで柔軟なvmiap(メンバーシップ推論アタックプラットフォーム)を用いて解析をサポートする。
さらに、従来の手法は、複数のMIAおよび異なるターゲットモデルの下で脆弱なデータポイントを見つけるには適していない。
最後に、脆弱性はデータポイントの特徴ではなく、miaおよびターゲットモデルに関連するものであることを観察する。
関連論文リスト
- Membership Inference Attack Should Move On to Distributional Statistics for Distilled Generative Models [31.834967019893227]
メンバーシップ推論攻撃(MIA)は、特定のデータインスタンスがモデルをトレーニングするために使用されたかどうかを決定する。
本論文は, 既存のMIAのEmpdistilled Generative Modelに対する展望を明らかにする。
学生が生成したデータと潜在的メンバー/非メンバーデータとの間の説明的分布の相違を計測するEmphsetベースのMIAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-05T08:11:23Z) - Range Membership Inference Attacks [17.28638946021444]
本研究では,RaMIA(Ra Range Membering Inference attack)のクラスを導入し,モデルが特定の範囲の任意のデータに対してトレーニングされたかどうかを検証した。
各種データ上でのMIAよりも,プライバシ損失をより正確に,包括的に捉えることができることを示す。
論文 参考訳(メタデータ) (2024-08-09T15:39:06Z) - FedMIA: An Effective Membership Inference Attack Exploiting "All for One" Principle in Federated Learning [17.141646895576145]
Federated Learning(FL)は、分散データ上で機械学習モデルをトレーニングするための有望なアプローチである。
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットクライアントのトレーニングセットに属するかどうかを判断することを目的としている。
我々はFedMIAと呼ばれる3段階のメンバーシップ推論攻撃(MIA)手法を導入し、MIAの有効性を高めるため、複数の通信ラウンドにまたがる全クライアントからの更新を平均化する。
論文 参考訳(メタデータ) (2024-02-09T09:58:35Z) - MIA-BAD: An Approach for Enhancing Membership Inference Attack and its
Mitigation with Federated Learning [6.510488168434277]
メンバシップ推論攻撃(MIA)は、機械学習(ML)モデルのプライバシを妥協するための一般的なパラダイムである。
バッチ・ワイズ・アサート・データセット(MIA-BAD)を用いた強化されたメンバーシップ推論攻撃を提案する。
FLを用いたMLモデルのトレーニング方法を示すとともに,提案したMIA-BADアプローチによる脅威をFLアプローチで緩和する方法について検討する。
論文 参考訳(メタデータ) (2023-11-28T06:51:26Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。