論文の概要: Verifiable and Provably Secure Machine Unlearning
- arxiv url: http://arxiv.org/abs/2210.09126v2
- Date: Mon, 20 Mar 2023 19:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 02:42:49.900368
- Title: Verifiable and Provably Secure Machine Unlearning
- Title(参考訳): 検証可能で証明可能なマシンアンラーニング
- Authors: Thorsten Eisenhofer, Doreen Riepel, Varun Chandrasekaran, Esha Ghosh,
Olga Ohrimenko, Nicolas Papernot
- Abstract要約: 機械学習は、トレーニング後の機械学習モデルのトレーニングデータセットからポイントを取り除くことを目的としている。
本稿では,機械のアンラーニングシステムの保証を捉えるための,検証可能なアンラーニングの最初の暗号的定義を示す。
我々は、線形回帰、ロジスティック回帰、ニューラルネットワークの実現可能性を検証するために、3つの異なるアンラーニング手法のプロトコルを実装した。
- 参考スコア(独自算出の注目度): 37.353982787321385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning aims to remove points from the training dataset of a
machine learning model after training; for example when a user requests their
data to be deleted. While many machine unlearning methods have been proposed,
none of them enable users to audit the procedure. Furthermore, recent work
shows a user is unable to verify if their data was unlearnt from an inspection
of the model alone. Rather than reasoning about model parameters, we propose to
view verifiable unlearning as a security problem. To this end, we present the
first cryptographic definition of verifiable unlearning to formally capture the
guarantees of a machine unlearning system. In this framework, the server first
computes a proof that the model was trained on a dataset $D$. Given a user data
point $d$ requested to be deleted, the server updates the model using an
unlearning algorithm. It then provides a proof of the correct execution of
unlearning and that $d \notin D'$, where $D'$ is the new training dataset. Our
framework is generally applicable to different unlearning techniques that we
abstract as admissible functions. We instantiate the framework, based on
cryptographic assumptions, using SNARKs and hash chains. Finally, we implement
the protocol for three different unlearning techniques (retraining-based,
amnesiac, and optimization-based) to validate its feasibility for linear
regression, logistic regression, and neural networks.
- Abstract(参考訳): 機械学習は、トレーニング後の機械学習モデルのトレーニングデータセットからポイントを削除することを目的としている。
多くの機械学習手法が提案されているが、ユーザによる監査は行われていない。
さらに、最近の研究は、ユーザーがモデルのみの検査からデータが漏れているかどうかを検証できないことを示している。
モデルパラメータを推論するのではなく,検証可能なアンラーニングをセキュリティ問題として捉えることを提案する。
そこで本研究では,検証可能なアンラーニングの暗号的定義を初めて提示し,マシンアンラーニングシステムの保証を正式に取得する。
このフレームワークでは、サーバが最初にモデルがデータセット$D$でトレーニングされたという証明を計算する。
削除を要求されたユーザデータポイント$d$が与えられた場合、サーバはアンラーニングアルゴリズムを使用してモデルを更新する。
次に、アンラーニングの正しい実行の証明を提供し、$d \notin D'$で、$D'$は新しいトレーニングデータセットである。
我々のフレームワークは一般に、許容可能な関数として抽象化する異なる未学習技術に適用できる。
我々は、SNARKとハッシュチェーンを用いて、暗号的な仮定に基づいてフレームワークをインスタンス化する。
最後に、線形回帰、ロジスティック回帰、ニューラルネットワークの実現可能性を検証するために、3つの異なるアンラーニング手法(リトレーニングベース、アムネシアック、最適化ベース)のプロトコルを実装した。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Can Membership Inferencing be Refuted? [31.31060116447964]
本研究では,実際に会員推論攻撃の信頼性について検討する。
モデルオーナは,データポイント$x$のメンバシップ推論テストの結果に対して,検証の証明を構築することで,妥当に反証できることを示す。
本研究の結果は,実際に会員推論攻撃がもたらす影響を再評価するものである。
論文 参考訳(メタデータ) (2023-03-07T04:36:35Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - On the Necessity of Auditable Algorithmic Definitions for Machine
Unlearning [13.149070833843133]
機械学習、すなわち、トレーニングデータのいくつかを忘れるモデルを持つことは、プライバシー法が忘れられる権利の変種を促進するにつれ、ますます重要になっている。
まず、ほぼ未学習のモデルが正確に訓練されたモデルに近いことを証明しようとする、近似的未学習の定義は、異なるデータセットを用いて同じモデルを得ることができるため、正しくないことを示す。
そして、正確なアンラーニングアプローチに目を向け、アンラーニングのクレームの検証方法を尋ねます。
論文 参考訳(メタデータ) (2021-10-22T16:16:56Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - Supervised Machine Learning with Plausible Deniability [1.685485565763117]
機械学習(ML)モデルが、特定のデータセットでトレーニングされたモデルが、トレーニングデータに対してどの程度のプライバシを提供するか、という問題について検討する。
我々は、純粋にランダムなトレーニングデータの集合を取ることができ、そこから、ちょうど$f$のMLモデルを生成する'適切な学習ルール'を定義することができることを示す。
論文 参考訳(メタデータ) (2021-06-08T11:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。