論文の概要: ML Privacy Meter: Aiding Regulatory Compliance by Quantifying the
Privacy Risks of Machine Learning
- arxiv url: http://arxiv.org/abs/2007.09339v1
- Date: Sat, 18 Jul 2020 06:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 06:10:36.354043
- Title: ML Privacy Meter: Aiding Regulatory Compliance by Quantifying the
Privacy Risks of Machine Learning
- Title(参考訳): ml privacy meter: マシンラーニングのプライバシリスクの定量化による規制コンプライアンスの支援
- Authors: Sasi Kumar Murakonda, Reza Shokri
- Abstract要約: 機械学習モデルは、モデル予測とパラメータを通じて間接的にデータについて明らかにすることで、データにさらなるプライバシーリスクをもたらす。
モデルからのデータに対して、プライバシのリスクを定量化するツールがすぐに必要になります。
ML Privacy Meterは、アートメンバーシップ推論攻撃手法の状態を通じ、モデルからのデータに対するプライバシリスクを定量化するツールである。
- 参考スコア(独自算出の注目度): 10.190911271176201
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When building machine learning models using sensitive data, organizations
should ensure that the data processed in such systems is adequately protected.
For projects involving machine learning on personal data, Article 35 of the
GDPR mandates it to perform a Data Protection Impact Assessment (DPIA). In
addition to the threats of illegitimate access to data through security
breaches, machine learning models pose an additional privacy risk to the data
by indirectly revealing about it through the model predictions and parameters.
Guidances released by the Information Commissioner's Office (UK) and the
National Institute of Standards and Technology (US) emphasize on the threat to
data from models and recommend organizations to account for and estimate these
risks to comply with data protection regulations. Hence, there is an immediate
need for a tool that can quantify the privacy risk to data from models.
In this paper, we focus on this indirect leakage about training data from
machine learning models. We present ML Privacy Meter, a tool that can quantify
the privacy risk to data from models through state of the art membership
inference attack techniques. We discuss how this tool can help practitioners in
compliance with data protection regulations, when deploying machine learning
models.
- Abstract(参考訳): センシティブなデータを使って機械学習モデルを構築する場合、組織はそのようなシステムで処理されたデータが適切に保護されていることを保証する必要がある。
個人データの機械学習に関わるプロジェクトについては、GDPR第35条では、データ保護影響評価(DPIA)を実施することを義務付けている。
セキュリティ侵害によるデータ不正アクセスの脅威に加えて、機械学習モデルは、モデル予測とパラメータを通じてデータを間接的に公開することで、データにさらなるプライバシーリスクをもたらす。
情報コミッショナー事務所(uk)と国立標準技術研究所(us)が公表したガイダンスでは、モデルからのデータに対する脅威を強調し、これらのリスクをデータ保護規則に従うために考慮し、見積もることを推奨している。
したがって、モデルからのデータに対するプライバシーリスクを定量化するためのツールがすぐに必要となる。
本稿では,機械学習モデルからのトレーニングデータに関する間接的漏洩に着目した。
ML Privacy Meterは、アートメンバーシップ推論攻撃手法の状態を通じ、モデルからのデータに対するプライバシリスクを定量化するツールである。
我々は、このツールが機械学習モデルのデプロイにおいて、データ保護規則に準拠した実践者に役立つかについて議論する。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Privacy-preserving Generative Framework Against Membership Inference
Attacks [10.791983671720882]
我々は、メンバーシップ推論攻撃に対するプライバシー保護のための生成フレームワークを設計する。
まず、VAEモデルを通してソースデータを潜時空間にマッピングして潜時符号を取得し、次に潜時符号上でメートル法プライバシーを満たすノイズ処理を行い、最終的にVAEモデルを用いて合成データを再構成する。
実験により、新たに生成した合成データを用いて学習した機械学習モデルは、メンバーシップ推論攻撃に効果的に抵抗でき、高いユーティリティを維持できることを示した。
論文 参考訳(メタデータ) (2022-02-11T06:13:30Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Amnesiac Machine Learning [15.680008735220785]
最近制定された一般データ保護規則は、欧州連合の居住者に関するデータを持つデータ保有者に影響を与えている。
モデルは、モデル反転攻撃のような情報漏洩攻撃に対して脆弱である。
我々は、モデル所有者が規制に準拠しながら、そのような攻撃から身を守ることのできる、UnlearningとAmnesiac Unlearningの2つのデータ除去方法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:14:17Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - An Overview of Privacy in Machine Learning [2.8935588665357077]
この文書は、機械学習とプライバシに関する関連する概念に関する背景情報を提供する。
本稿では,個人および/または機密情報漏洩に関連する広範囲な攻撃を網羅する,敵対的モデルと設定について論じる。
論文 参考訳(メタデータ) (2020-05-18T13:05:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。