論文の概要: PANORAMIA: Privacy Auditing of Machine Learning Models without Retraining
- arxiv url: http://arxiv.org/abs/2402.09477v2
- Date: Sat, 26 Oct 2024 19:24:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:14:53.783150
- Title: PANORAMIA: Privacy Auditing of Machine Learning Models without Retraining
- Title(参考訳): PANORAMIA:リトレーニングなしの機械学習モデルのプライバシ監査
- Authors: Mishaal Kazmi, Hadrien Lautraite, Alireza Akbari, Qiaoyue Tang, Mauricio Soroco, Tao Wang, Sébastien Gambs, Mathias Lécuyer,
- Abstract要約: 本稿では,機械学習モデルのためのプライバシリーク計測フレームワークであるPANORAMIAを紹介する。
PANORAMIAは、生成した非メンバーデータに依存することにより、非メンバーデータへのプライバシー測定ツールの共通依存性を排除する。
- 参考スコア(独自算出の注目度): 6.285804903102209
- License:
- Abstract: We present PANORAMIA, a privacy leakage measurement framework for machine learning models that relies on membership inference attacks using generated data as non-members. By relying on generated non-member data, PANORAMIA eliminates the common dependency of privacy measurement tools on in-distribution non-member data. As a result, PANORAMIA does not modify the model, training data, or training process, and only requires access to a subset of the training data. We evaluate PANORAMIA on ML models for image and tabular data classification, as well as on large-scale language models.
- Abstract(参考訳): 我々は、生成したデータを非メンバーとして使用した会員推測攻撃に依存する機械学習モデルのためのプライバシー漏洩測定フレームワークであるPANORAMIAを提案する。
PANORAMIAは、生成した非メンバーデータに依存することにより、非メンバーデータへのプライバシー測定ツールの共通依存性を排除する。
その結果、PANORAMIAはモデルやトレーニングデータ、トレーニングプロセスを変更しておらず、トレーニングデータのサブセットのみにアクセスする必要がある。
画像および表データ分類のためのMLモデルおよび大規模言語モデルにおけるPANORAMIAの評価を行った。
関連論文リスト
- Self-Comparison for Dataset-Level Membership Inference in Large (Vision-)Language Models [73.94175015918059]
本稿では,自己比較に基づくデータセットレベルのメンバシップ推定手法を提案する。
本手法では, 同一分布における地中構造データや非構造データへのアクセスは不要である。
論文 参考訳(メタデータ) (2024-10-16T23:05:59Z) - A General Framework for Data-Use Auditing of ML Models [47.369572284751285]
本稿では,データ所有者のデータを用いた学習におけるMLモデルの評価方法を提案する。
本稿では,2種類のMLモデルにおけるデータ利用を監査するために,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-07-21T09:32:34Z) - A Method to Facilitate Membership Inference Attacks in Deep Learning Models [5.724311218570013]
我々は,従来の技術よりも厳格に強力な新たな会員推論攻撃を実演する。
私たちの攻撃は、敵がすべてのトレーニングサンプルを確実に識別する権限を与えます。
これらのモデルは、共通の会員プライバシー監査の下で、増幅された会員リークを効果的に偽装できることを示す。
論文 参考訳(メタデータ) (2024-07-02T03:33:42Z) - Do Membership Inference Attacks Work on Large Language Models? [141.2019867466968]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Mitigating Membership Inference Attacks by Self-Distillation Through a
Novel Ensemble Architecture [44.2351146468898]
機械学習(ML)モデルにおいて、メンバシップ推論攻撃は、プライバシリークを評価する重要な手段である。
我々は、メンバーと非メンバーの入力に類似した振る舞いを誘発するプライバシー保護モデルをトレーニングするための新しいフレームワークを提案する。
また,SELENAは会員のプライバシーと実用性とのトレードオフが,最先端技術と比較して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-15T19:22:52Z) - Privacy Analysis of Deep Learning in the Wild: Membership Inference
Attacks against Transfer Learning [27.494206948563885]
本稿では,転送学習モデルに対するメンバシップ推論攻撃の最初の体系的評価について述べる。
4つの実世界の画像データセットに対する実験により、メンバーシップ推論が効果的なパフォーマンスを達成できることが示されている。
我々の結果は、実際に機械学習モデルから生じるメンバーシップリスクの深刻さを浮き彫りにした。
論文 参考訳(メタデータ) (2020-09-10T14:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。