論文の概要: zkUnlearner: A Zero-Knowledge Framework for Verifiable Unlearning with Multi-Granularity and Forgery-Resistance
- arxiv url: http://arxiv.org/abs/2509.07290v1
- Date: Mon, 08 Sep 2025 23:50:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.150954
- Title: zkUnlearner: A Zero-Knowledge Framework for Verifiable Unlearning with Multi-Granularity and Forgery-Resistance
- Title(参考訳): zkUnlearner: マルチグラニュラ性とフォージェリ耐性を備えた検証アンラーニングのためのゼロ知識フレームワーク
- Authors: Nan Wang, Nan Wu, Xiangyu Hui, Jiafan Wang, Xin Yuan,
- Abstract要約: Em zkUnlearnerは、検証可能なマシンアンラーニングのための最初のゼロ知識フレームワークである。
マルチグラニュラ性とエムフォージェリ耐性をサポートするように設計されている。
- 参考スコア(独自算出の注目度): 13.737284250494655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the demand for exercising the "right to be forgotten" grows, the need for verifiable machine unlearning has become increasingly evident to ensure both transparency and accountability. We present {\em zkUnlearner}, the first zero-knowledge framework for verifiable machine unlearning, specifically designed to support {\em multi-granularity} and {\em forgery-resistance}. First, we propose a general computational model that employs a {\em bit-masking} technique to enable the {\em selectivity} of existing zero-knowledge proofs of training for gradient descent algorithms. This innovation enables not only traditional {\em sample-level} unlearning but also more advanced {\em feature-level} and {\em class-level} unlearning. Our model can be translated to arithmetic circuits, ensuring compatibility with a broad range of zero-knowledge proof systems. Furthermore, our approach overcomes key limitations of existing methods in both efficiency and privacy. Second, forging attacks present a serious threat to the reliability of unlearning. Specifically, in Stochastic Gradient Descent optimization, gradients from unlearned data, or from minibatches containing it, can be forged using alternative data samples or minibatches that exclude it. We propose the first effective strategies to resist state-of-the-art forging attacks. Finally, we benchmark a zkSNARK-based instantiation of our framework and perform comprehensive performance evaluations to validate its practicality.
- Abstract(参考訳): 忘れられる権利」を行使する需要が高まるにつれて、透明性と説明責任の両方を保証するために、検証可能な機械学習の必要性がますます顕在化している。
我々は、検証可能なマシン・アンラーニングのための最初のゼロ知識フレームワークである {\em zkUnlearner} を紹介し、特に {\em multi-granularity} と {\em forgery-resistance} をサポートするように設計されている。
まず、勾配降下アルゴリズムの学習における既存のゼロ知識証明の「エム選択性」を実現するために「エムビットマスキング」手法を用いる一般計算モデルを提案する。
このイノベーションは、従来の「サンプルレベル」の未学習だけでなく、より高度な「特徴レベル」と「クラスレベル」の未学習を可能にします。
我々のモデルは算術回路に変換することができ、幅広いゼロ知識証明システムとの互換性を確保することができる。
さらに、このアプローチは、効率性とプライバシの両方において、既存のメソッドの重要な制限を克服します。
第二に、鍛造攻撃は未学習の信頼性に深刻な脅威をもたらす。
具体的には、Stochastic Gradient Descentの最適化では、未学習のデータやそれを含むミニバッチからの勾配は、それを除外する代替データサンプルやミニバッチを使用して鍛造することができる。
我々は、最先端の鍛造攻撃に抵抗する最初の効果的な戦略を提案する。
最後に、zkSNARKに基づくフレームワークのインスタンス化をベンチマークし、その実用性を検証するための総合的な性能評価を行う。
関連論文リスト
- BLUR: A Bi-Level Optimization Approach for LLM Unlearning [105.98410883830596]
未学習問題の階層構造をモデル化することが重要であると論じる。
本稿では,より優れた性能を実現する新しいアルゴリズムであるBi-Level UnleaRning(textttBLUR)を提案する。
論文 参考訳(メタデータ) (2025-06-09T19:23:05Z) - Towards Lifecycle Unlearning Commitment Management: Measuring Sample-level Unlearning Completeness [30.596695293390415]
補間近似測定(Interpolated Approximate Measurement, IAM)は、非学習推論用に設計されたフレームワークである。
IAMは、クエリされたサンプルに対するモデルの一般化適合行動ギャップを補間することにより、サンプルレベルの未学習完全性を定量化する。
IAMを最近の近似アンラーニングアルゴリズムに適用し、オーバーアンラーニングとアンダーアンラーニングの両方のリスクを明らかにする。
論文 参考訳(メタデータ) (2025-06-06T14:22:18Z) - UniErase: Unlearning Token as a Universal Erasure Primitive for Language Models [54.75551043657238]
学習可能なパラメトリック接尾辞(アンラーニングトークン)を用いて、ターゲットとなる忘れ行動に向けて言語モデルを操る新しいアンラーニングパラダイムであるUniEraseを紹介する。
UniEraseは、実世界の知識設定の下で、バッチ、シーケンシャル、そして正確なアンラーニングで、最先端のSOTA(State-of-the-art)パフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-21T15:53:28Z) - Rewind-to-Delete: Certified Machine Unlearning for Nonconvex Functions [11.955062839855334]
機械学習アルゴリズムは、スクラッチを使わずにモデルから効率的にデータを収集することを目的としている。
証明されたマシン・アンラーニングは 微分一般化に基づく 強力な理論上の保証だ
論文 参考訳(メタデータ) (2024-09-15T15:58:08Z) - Machine Unlearning with Minimal Gradient Dependence for High Unlearning Ratios [18.73206066109299]
ミニ・アンラーニング(Mini-Unlearning)は、批判的な観察を活かした新しいアプローチである。
この軽量でスケーラブルな方法は、モデルの精度を大幅に向上し、メンバシップ推論攻撃に対する耐性を高める。
実験の結果,Mini-Unlearningは非学習率が高いだけでなく,既存の手法よりも精度と安全性が優れていることがわかった。
論文 参考訳(メタデータ) (2024-06-24T01:43:30Z) - Adversarial Auto-Augment with Label Preservation: A Representation
Learning Principle Guided Approach [95.74102207187545]
本研究では,事前自由な自律的データ拡張の目的が表現学習の原則から導出可能であることを示す。
そこで我々は,既存の手法にシームレスに最適化し,シームレスに統合できる目的に対して,実用的なサロゲートを提案する。
論文 参考訳(メタデータ) (2022-11-02T02:02:51Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。