論文の概要: ML Privacy Meter: Aiding Regulatory Compliance by Quantifying the
Privacy Risks of Machine Learning
- arxiv url: http://arxiv.org/abs/2007.09339v1
- Date: Sat, 18 Jul 2020 06:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 06:10:36.354043
- Title: ML Privacy Meter: Aiding Regulatory Compliance by Quantifying the
Privacy Risks of Machine Learning
- Title(参考訳): ml privacy meter: マシンラーニングのプライバシリスクの定量化による規制コンプライアンスの支援
- Authors: Sasi Kumar Murakonda, Reza Shokri
- Abstract要約: 機械学習モデルは、モデル予測とパラメータを通じて間接的にデータについて明らかにすることで、データにさらなるプライバシーリスクをもたらす。
モデルからのデータに対して、プライバシのリスクを定量化するツールがすぐに必要になります。
ML Privacy Meterは、アートメンバーシップ推論攻撃手法の状態を通じ、モデルからのデータに対するプライバシリスクを定量化するツールである。
- 参考スコア(独自算出の注目度): 10.190911271176201
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When building machine learning models using sensitive data, organizations
should ensure that the data processed in such systems is adequately protected.
For projects involving machine learning on personal data, Article 35 of the
GDPR mandates it to perform a Data Protection Impact Assessment (DPIA). In
addition to the threats of illegitimate access to data through security
breaches, machine learning models pose an additional privacy risk to the data
by indirectly revealing about it through the model predictions and parameters.
Guidances released by the Information Commissioner's Office (UK) and the
National Institute of Standards and Technology (US) emphasize on the threat to
data from models and recommend organizations to account for and estimate these
risks to comply with data protection regulations. Hence, there is an immediate
need for a tool that can quantify the privacy risk to data from models.
In this paper, we focus on this indirect leakage about training data from
machine learning models. We present ML Privacy Meter, a tool that can quantify
the privacy risk to data from models through state of the art membership
inference attack techniques. We discuss how this tool can help practitioners in
compliance with data protection regulations, when deploying machine learning
models.
- Abstract(参考訳): センシティブなデータを使って機械学習モデルを構築する場合、組織はそのようなシステムで処理されたデータが適切に保護されていることを保証する必要がある。
個人データの機械学習に関わるプロジェクトについては、GDPR第35条では、データ保護影響評価(DPIA)を実施することを義務付けている。
セキュリティ侵害によるデータ不正アクセスの脅威に加えて、機械学習モデルは、モデル予測とパラメータを通じてデータを間接的に公開することで、データにさらなるプライバシーリスクをもたらす。
情報コミッショナー事務所(uk)と国立標準技術研究所(us)が公表したガイダンスでは、モデルからのデータに対する脅威を強調し、これらのリスクをデータ保護規則に従うために考慮し、見積もることを推奨している。
したがって、モデルからのデータに対するプライバシーリスクを定量化するためのツールがすぐに必要となる。
本稿では,機械学習モデルからのトレーニングデータに関する間接的漏洩に着目した。
ML Privacy Meterは、アートメンバーシップ推論攻撃手法の状態を通じ、モデルからのデータに対するプライバシリスクを定量化するツールである。
我々は、このツールが機械学習モデルのデプロイにおいて、データ保護規則に準拠した実践者に役立つかについて議論する。
関連論文リスト
- Game-Theoretic Machine Unlearning: Mitigating Extra Privacy Leakage [12.737028324709609]
最近の法律では、要求されたデータとその影響を訓練されたモデルから取り除くことが義務付けられている。
本研究では,非学習性能とプライバシ保護の競合関係をシミュレートするゲーム理論マシンアンラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-06T13:47:04Z) - Survey of Security and Data Attacks on Machine Unlearning In Financial and E-Commerce [0.0]
本稿では、金融・電子商取引アプリケーションに焦点をあて、機械学習におけるセキュリティとデータアタックの状況について調査する。
これらのリスクを軽減するため、差分プライバシー、堅牢な暗号保証、ZKP(Zero-Knowledge Proofs)など、さまざまな防衛戦略が検討されている。
この調査は、セキュアマシンアンラーニングにおける継続的な研究とイノベーションの必要性と、進化する攻撃ベクトルに対する強力な防御を開発することの重要性を強調している。
論文 参考訳(メタデータ) (2024-09-29T00:30:36Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Privacy-preserving Generative Framework Against Membership Inference
Attacks [10.791983671720882]
我々は、メンバーシップ推論攻撃に対するプライバシー保護のための生成フレームワークを設計する。
まず、VAEモデルを通してソースデータを潜時空間にマッピングして潜時符号を取得し、次に潜時符号上でメートル法プライバシーを満たすノイズ処理を行い、最終的にVAEモデルを用いて合成データを再構成する。
実験により、新たに生成した合成データを用いて学習した機械学習モデルは、メンバーシップ推論攻撃に効果的に抵抗でき、高いユーティリティを維持できることを示した。
論文 参考訳(メタデータ) (2022-02-11T06:13:30Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。