論文の概要: Certified Data Removal in Sum-Product Networks
- arxiv url: http://arxiv.org/abs/2210.01451v1
- Date: Tue, 4 Oct 2022 08:22:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:35:33.878246
- Title: Certified Data Removal in Sum-Product Networks
- Title(参考訳): Sum-Product Networkにおける認証データ削除
- Authors: Alexander Becker and Thomas Liebig
- Abstract要約: 収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
- 参考スコア(独自算出の注目度): 78.27542864367821
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Data protection regulations like the GDPR or the California Consumer Privacy
Act give users more control over the data that is collected about them.
Deleting the collected data is often insufficient to guarantee data privacy
since it is often used to train machine learning models, which can expose
information about the training data. Thus, a guarantee that a trained model
does not expose information about its training data is additionally needed. In
this paper, we present UnlearnSPN -- an algorithm that removes the influence of
single data points from a trained sum-product network and thereby allows
fulfilling data privacy requirements on demand.
- Abstract(参考訳): GDPRやカリフォルニア州消費者プライバシ法のようなデータ保護規則は、ユーザがそれらのデータをもっとコントロールできるようにする。
収集したデータの削除は、トレーニングデータに関する情報を公開する機械学習モデルのトレーニングによく使用されるため、データのプライバシを保証するには不十分であることが多い。
したがって、トレーニングされたモデルがトレーニングデータに関する情報を公開しないという保証も必要となる。
本稿では,訓練されたサムプロダクトネットワークから単一のデータポイントの影響を取り除き,要求に応じてデータプライバシ要件を満たすアルゴリズムであるunlearnspnを提案する。
関連論文リスト
- Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Stop Uploading Test Data in Plain Text: Practical Strategies for
Mitigating Data Contamination by Evaluation Benchmarks [70.39633252935445]
データ汚染は、大規模な自動クロールコーパスで事前訓練されたモデルの台頭によって、普及し、課題となっている。
クローズドモデルの場合、トレーニングデータはトレードシークレットになり、オープンモデルであっても汚染を検出するのは簡単ではない。
1)公開するテストデータを公開鍵で暗号化し,デリバティブ配信を許可する,(2)クローズドAPI保持者からの要求トレーニング排他的コントロールを許可する,(2)評価を拒否してテストデータを保護する,(3)インターネット上のソリューションで表示されるデータを避け,インターネット由来のWebページコンテキストを解放する,という3つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-17T12:23:38Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - A Privacy-Preserving Outsourced Data Model in Cloud Environment [8.176020822058586]
データセキュリティとプライバシの問題は、機械学習ツールの使用にとって重要な障害のひとつだ。
機械学習効率を損なうことなくデータのプライバシを保護するプライバシ保存モデルを提案する。
Fogノードは、データ所有者からノイズ付加データを収集し、ストレージ、計算、分類タスクの実行のためにクラウドプラットフォームに移行する。
論文 参考訳(メタデータ) (2022-11-24T11:27:30Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Transferable Unlearnable Examples [63.64357484690254]
第三者が許可なくデータのトレーニングを行うのを防ぐために、学べない戦略が導入された。
公開前にユーザーのデータに摂動を追加することで、公開データセットでトレーニングされたモデルを無効にすることを目指している。
本稿では、学習不可能な効果を他のトレーニング設定やデータセットに伝達することを目的とした、クラスワイズ・セパビリティ・ディミナント(CSD)に基づく新しい学習不可能な戦略を提案する。
論文 参考訳(メタデータ) (2022-10-18T19:23:52Z) - Machine unlearning via GAN [2.406359246841227]
機械学習モデル、特にディープラーニングモデルは、トレーニングデータに関する情報を意図せずに記憶することができる。
本稿では,深層モデルにおけるデータ削除のためのGANアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-22T05:28:57Z) - Amnesiac Machine Learning [15.680008735220785]
最近制定された一般データ保護規則は、欧州連合の居住者に関するデータを持つデータ保有者に影響を与えている。
モデルは、モデル反転攻撃のような情報漏洩攻撃に対して脆弱である。
我々は、モデル所有者が規制に準拠しながら、そのような攻撃から身を守ることのできる、UnlearningとAmnesiac Unlearningの2つのデータ除去方法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:14:17Z) - ML Privacy Meter: Aiding Regulatory Compliance by Quantifying the
Privacy Risks of Machine Learning [10.190911271176201]
機械学習モデルは、モデル予測とパラメータを通じて間接的にデータについて明らかにすることで、データにさらなるプライバシーリスクをもたらす。
モデルからのデータに対して、プライバシのリスクを定量化するツールがすぐに必要になります。
ML Privacy Meterは、アートメンバーシップ推論攻撃手法の状態を通じ、モデルからのデータに対するプライバシリスクを定量化するツールである。
論文 参考訳(メタデータ) (2020-07-18T06:21:35Z) - Security and Privacy Preserving Deep Learning [2.322461721824713]
ディープラーニングに必要な膨大なデータ収集は、明らかにプライバシーの問題を提示している。
写真や音声録音などの、個人的かつ高感度なデータは、収集する企業によって無期限に保持される。
深層ニューラルネットワークは、トレーニングデータに関する情報を記憶するさまざまな推論攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2020-06-23T01:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。