論文の概要: PANORAMIA: Privacy Auditing of Machine Learning Models without
Retraining
- arxiv url: http://arxiv.org/abs/2402.09477v1
- Date: Mon, 12 Feb 2024 22:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 18:28:05.289948
- Title: PANORAMIA: Privacy Auditing of Machine Learning Models without
Retraining
- Title(参考訳): PANORAMIA:リトレーニングなしの機械学習モデルのプライバシ監査
- Authors: Mishaal Kazmi, Hadrien Lautraite, Alireza Akbari, Mauricio Soroco,
Qiaoyue Tang, Tao Wang, S\'ebastien Gambs, Mathias L\'ecuyer
- Abstract要約: 生成したデータを非メンバーとして使用した会員推論攻撃に依存するMLモデルのプライバシ監査方式を提案する。
PANORAMIAと呼ぶこのスキームは、トレーニングプロセスやモデル再トレーニングを制御せずに、大規模MLモデルのプライバシリークを定量化する。
- 参考スコア(独自算出の注目度): 2.6068944905108227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a privacy auditing scheme for ML models that relies on
membership inference attacks using generated data as "non-members". This
scheme, which we call PANORAMIA, quantifies the privacy leakage for large-scale
ML models without control of the training process or model re-training and only
requires access to a subset of the training data. To demonstrate its
applicability, we evaluate our auditing scheme across multiple ML domains,
ranging from image and tabular data classification to large-scale language
models.
- Abstract(参考訳): 生成したデータを非メンバーとして使用した会員推測攻撃に依存するMLモデルのプライバシ監査方式を提案する。
PANORAMIAと呼ぶこのスキームは、トレーニングプロセスやモデル再トレーニングを制御せずに大規模なMLモデルのプライバシリークを定量化し、トレーニングデータのサブセットへのアクセスのみを必要とする。
その適用性を示すため、画像や表データ分類から大規模言語モデルまで、複数のMLドメインにわたる監査手法の評価を行った。
関連論文リスト
- Self-Comparison for Dataset-Level Membership Inference in Large (Vision-)Language Models [73.94175015918059]
本稿では,自己比較に基づくデータセットレベルのメンバシップ推定手法を提案する。
本手法では, 同一分布における地中構造データや非構造データへのアクセスは不要である。
論文 参考訳(メタデータ) (2024-10-16T23:05:59Z) - A General Framework for Data-Use Auditing of ML Models [47.369572284751285]
本稿では,データ所有者のデータを用いた学習におけるMLモデルの評価方法を提案する。
本稿では,2種類のMLモデルにおけるデータ利用を監査するために,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-07-21T09:32:34Z) - A Method to Facilitate Membership Inference Attacks in Deep Learning Models [5.724311218570013]
我々は,従来の技術よりも厳格に強力な新たな会員推論攻撃を実演する。
私たちの攻撃は、敵がすべてのトレーニングサンプルを確実に識別する権限を与えます。
これらのモデルは、共通の会員プライバシー監査の下で、増幅された会員リークを効果的に偽装できることを示す。
論文 参考訳(メタデータ) (2024-07-02T03:33:42Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Mitigating Membership Inference Attacks by Self-Distillation Through a
Novel Ensemble Architecture [44.2351146468898]
機械学習(ML)モデルにおいて、メンバシップ推論攻撃は、プライバシリークを評価する重要な手段である。
我々は、メンバーと非メンバーの入力に類似した振る舞いを誘発するプライバシー保護モデルをトレーニングするための新しいフレームワークを提案する。
また,SELENAは会員のプライバシーと実用性とのトレードオフが,最先端技術と比較して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-15T19:22:52Z) - Privacy Analysis of Deep Learning in the Wild: Membership Inference
Attacks against Transfer Learning [27.494206948563885]
本稿では,転送学習モデルに対するメンバシップ推論攻撃の最初の体系的評価について述べる。
4つの実世界の画像データセットに対する実験により、メンバーシップ推論が効果的なパフォーマンスを達成できることが示されている。
我々の結果は、実際に機械学習モデルから生じるメンバーシップリスクの深刻さを浮き彫りにした。
論文 参考訳(メタデータ) (2020-09-10T14:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。