論文の概要: Verifiable and Provably Secure Machine Unlearning
- arxiv url: http://arxiv.org/abs/2210.09126v1
- Date: Mon, 17 Oct 2022 14:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:30:34.960504
- Title: Verifiable and Provably Secure Machine Unlearning
- Title(参考訳): 検証可能で証明可能なマシンアンラーニング
- Authors: Thorsten Eisenhofer, Doreen Riepel, Varun Chandrasekaran, Esha Ghosh,
Olga Ohrimenko, Nicolas Papernot
- Abstract要約: 検証可能なマシンアンラーニングのセキュリティをキャプチャする最初の暗号フレームワークを定義する。
当社のプロトコルでは、まずサーバがモデルがデータセット上でトレーニングされたという証明を計算します。
次に、我々のインスタンス化が安全であることを示す公式なゲームベースの証明を示す。
- 参考スコア(独自算出の注目度): 37.353982787321385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning aims to remove points from the training dataset of a
machine learning model after training; for example when a user requests their
data to be deleted. While many machine unlearning methods have been proposed,
none of them enable users to audit the unlearning procedure and verify that
their data was indeed unlearned. To address this, we define the first
cryptographic framework to formally capture the security of verifiable machine
unlearning. While our framework is generally applicable to different
approaches, its advantages are perhaps best illustrated by our instantiation
for the canonical approach to unlearning: retraining the model without the data
to be unlearned. In our cryptographic protocol, the server first computes a
proof that the model was trained on a dataset~$D$. Given a user data point $d$,
the server then computes a proof of unlearning that shows that $d \notin D$. We
realize our protocol using a SNARK and Merkle trees to obtain proofs of update
and unlearning on the data. Based on cryptographic assumptions, we then present
a formal game-based proof that our instantiation is secure. Finally, we
validate the practicality of our constructions for unlearning in linear
regression, logistic regression, and neural networks.
- Abstract(参考訳): 機械学習は、トレーニング後の機械学習モデルのトレーニングデータセットからポイントを削除することを目的としている。
多くの機械学習手法が提案されているが、いずれもユーザーが未学習の手順を監査し、そのデータが実際に未学習であることを検証できるものではない。
これを解決するために、検証可能なマシンアンラーニングのセキュリティを正式にキャプチャする最初の暗号フレームワークを定義する。
我々のフレームワークは一般的に異なるアプローチに当てはまるが、その利点はおそらく、学習しないという標準的なアプローチのインスタンス化によって示される。
暗号化プロトコルでは、まずモデルがデータセットから$d$でトレーニングされたという証明をサーバが計算します。
ユーザデータポイントが$d$になると、サーバは未学習の証明を計算し、$d \notin D$を示す。
我々はsnarkとmerkle木を用いて,データ更新とアンラーニングの証明を得るプロトコルを実現する。
暗号の仮定に基づいて、我々のインスタンス化が安全であることの正式なゲームベースの証明を提示する。
最後に,線形回帰,ロジスティック回帰,ニューラルネットワークにおけるアンラーニングのための構成の実用性を検証する。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Can Membership Inferencing be Refuted? [31.31060116447964]
本研究では,実際に会員推論攻撃の信頼性について検討する。
モデルオーナは,データポイント$x$のメンバシップ推論テストの結果に対して,検証の証明を構築することで,妥当に反証できることを示す。
本研究の結果は,実際に会員推論攻撃がもたらす影響を再評価するものである。
論文 参考訳(メタデータ) (2023-03-07T04:36:35Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - On the Necessity of Auditable Algorithmic Definitions for Machine
Unlearning [13.149070833843133]
機械学習、すなわち、トレーニングデータのいくつかを忘れるモデルを持つことは、プライバシー法が忘れられる権利の変種を促進するにつれ、ますます重要になっている。
まず、ほぼ未学習のモデルが正確に訓練されたモデルに近いことを証明しようとする、近似的未学習の定義は、異なるデータセットを用いて同じモデルを得ることができるため、正しくないことを示す。
そして、正確なアンラーニングアプローチに目を向け、アンラーニングのクレームの検証方法を尋ねます。
論文 参考訳(メタデータ) (2021-10-22T16:16:56Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - Supervised Machine Learning with Plausible Deniability [1.685485565763117]
機械学習(ML)モデルが、特定のデータセットでトレーニングされたモデルが、トレーニングデータに対してどの程度のプライバシを提供するか、という問題について検討する。
我々は、純粋にランダムなトレーニングデータの集合を取ることができ、そこから、ちょうど$f$のMLモデルを生成する'適切な学習ルール'を定義することができることを示す。
論文 参考訳(メタデータ) (2021-06-08T11:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。