論文の概要: SeqMIA: Sequential-Metric Based Membership Inference Attack
- arxiv url: http://arxiv.org/abs/2407.15098v1
- Date: Sun, 21 Jul 2024 09:11:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 19:18:45.665281
- Title: SeqMIA: Sequential-Metric Based Membership Inference Attack
- Title(参考訳): SeqMIA:Sequential-Metric based Membership Inference Attack
- Authors: Hao Li, Zheng Li, Siyuan Wu, Chengrui Hu, Yutong Ye, Min Zhang, Dengguo Feng, Yang Zhang,
- Abstract要約: 我々はSeqMIA(Sequential-metric based Membership Inference Attack)と呼ばれる新しい攻撃手法を導入する。
具体的には、知識蒸留を用いて、対象モデルのトレーニングの様々な段階を表す蒸留モデルのセットを得る。
次に、これらの蒸留モデルに関する複数のメトリクスを時系列で評価し、蒸留されたメトリクス列を作成する。
- 参考スコア(独自算出の注目度): 20.164797156617563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing membership inference attacks (MIAs) utilize metrics (e.g., loss) calculated on the model's final state, while recent advanced attacks leverage metrics computed at various stages, including both intermediate and final stages, throughout the model training. Nevertheless, these attacks often process multiple intermediate states of the metric independently, ignoring their time-dependent patterns. Consequently, they struggle to effectively distinguish between members and non-members who exhibit similar metric values, particularly resulting in a high false-positive rate. In this study, we delve deeper into the new membership signals in the black-box scenario. We identify a new, more integrated membership signal: the Pattern of Metric Sequence, derived from the various stages of model training. We contend that current signals provide only partial perspectives of this new signal: the new one encompasses both the model's multiple intermediate and final states, with a greater emphasis on temporal patterns among them. Building upon this signal, we introduce a novel attack method called Sequential-metric based Membership Inference Attack (SeqMIA). Specifically, we utilize knowledge distillation to obtain a set of distilled models representing various stages of the target model's training. We then assess multiple metrics on these distilled models in chronological order, creating distilled metric sequence. We finally integrate distilled multi-metric sequences as a sequential multiformat and employ an attention-based RNN attack model for inference. Empirical results show SeqMIA outperforms all baselines, especially can achieve an order of magnitude improvement in terms of TPR @ 0.1% FPR. Furthermore, we delve into the reasons why this signal contributes to SeqMIA's high attack performance, and assess various defense mechanisms against SeqMIA.
- Abstract(参考訳): 既存のメンバーシップ推論攻撃(MIA)のほとんどは、モデルの最終状態に基づいて計算されたメトリクス(例えば損失)を使用し、最近の高度な攻撃は、モデルトレーニングを通して、中間段階と最終段階の両方を含む様々な段階で計算されたメトリクスを利用する。
しかしながら、これらの攻撃はしばしば、時間に依存したパターンを無視して、メトリックの複数の中間状態を独立に処理する。
その結果、同じ基準値を示すメンバーと非メンバーを効果的に区別するのに苦労し、特に偽陽性率が高い。
本研究では,ブラックボックスシナリオにおける新しいメンバーシップ信号について詳しく検討する。
我々は、モデルトレーニングの様々な段階から派生した、より統合された新しいメンバーシップ信号である、メトリックシーケンスのパターンを同定する。
新しい信号はモデルの複数の中間状態と最終状態の両方を包含し、それらの間の時間的パターンに重点を置いている。
この信号に基づいて,SeqMIA(Sequential-metric based Membership Inference Attack)と呼ばれる新たな攻撃手法を導入する。
具体的には、知識蒸留を用いて、対象モデルのトレーニングの様々な段階を表す蒸留モデルのセットを得る。
次に、これらの蒸留モデルに関する複数のメトリクスを時系列で評価し、蒸留されたメトリクス列を作成する。
最終的に蒸留したマルチメトリックシーケンスをシーケンシャルなマルチフォーマットとして統合し、アテンションベースのRNNアタックモデルを用いて推論を行う。
実証実験の結果、SeqMIAは全てのベースラインを上回り、特にTPR @ 0.1% FPRの点で桁違いに改善できることがわかった。
さらに,この信号がSeqMIAの高攻撃性能に寄与する理由を解明し,SeqMIAに対する防御機構の評価を行った。
関連論文リスト
- The Fine Line: Navigating Large Language Model Pretraining with Down-streaming Capability Analysis [60.52921835351632]
本稿では,様々な事前学習中間点におけるモデル能力の総合的な比較を行う。
特定のダウンストリームメトリクスが、異なるサイズのモデルにまたがる同様のトレーニングダイナミクスを示すことを確認します。
コアの発見に加えて、AmberとOpenLLaMAを再現し、中間チェックポイントをリリースしました。
論文 参考訳(メタデータ) (2024-04-01T16:00:01Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Do Membership Inference Attacks Work on Large Language Models? [145.90022632726883]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - A Probabilistic Fluctuation based Membership Inference Attack for Diffusion Models [32.15773300068426]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングセットに、モデルをクエリすることでレコードが存在するかどうかを特定する。
PFAMI(Probabilistic Fluctuation Assessing Membership Inference Attack)を提案する。
PFAMIは最高のベースラインと比較して攻撃成功率(ASR)を約27.9%向上させることができる。
論文 参考訳(メタデータ) (2023-08-23T14:00:58Z) - Membership Inference Attacks by Exploiting Loss Trajectory [19.900473800648243]
そこで本研究では,対象モデルのトレーニングプロセス全体から,メンバシップ情報を利用する新たな攻撃手法であるシステムを提案する。
我々の攻撃は、既存の方法よりも0.1%低い偽陽性率で、少なくとも6$times$高い真陽性率を達成する。
論文 参考訳(メタデータ) (2022-08-31T16:02:26Z) - Evaluation Metrics for Conditional Image Generation [100.69766435176557]
クラス条件画像生成設定において生成モデルを評価するための2つの新しい指標を提案する。
理論的分析は、提案されたメトリクスの背景にあるモチベーションを示し、新しいメトリクスと条件のないメトリクスを結びつける。
我々は,実験的な評価を行い,その指標を条件のない変種や他の指標と比較し,既存の生成モデルの解析に利用した。
論文 参考訳(メタデータ) (2020-04-26T12:15:16Z) - Adversarial Attacks on Multivariate Time Series [4.297070083645049]
本稿では, 既存の逆変換ネットワーク(ATN)を蒸留モデルに変換して, 多変量時系列分類モデルを攻撃することを提案する。
提案した分類モデルに対する攻撃は,古典的時系列分類モデルの動作を模倣したシュロゲートとして蒸留モデルを利用する。
どちらのモデルも18のデータセットすべてに対する攻撃を受けやすいことを示した。
論文 参考訳(メタデータ) (2020-03-31T00:15:41Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。