論文の概要: ZK-APEX: Zero-Knowledge Approximate Personalized Unlearning with Executable Proofs
- arxiv url: http://arxiv.org/abs/2512.09953v1
- Date: Tue, 09 Dec 2025 16:52:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:41.987212
- Title: ZK-APEX: Zero-Knowledge Approximate Personalized Unlearning with Executable Proofs
- Title(参考訳): ZK-APEX: 実行可能な証明によるゼロ知識近似型パーソナライズアンラーニング
- Authors: Mohammad M Maheri, Sunil Cotterill, Alex Davidson, Hamed Haddadi,
- Abstract要約: ZK APEXはゼロショットパーソナライズされた未学習の手法で、再トレーニングせずにパーソナライズされたモデル上で直接動作する。
Vision Transformerの分類タスクでは、ZK APEXはほとんどすべてのパーソナライズ精度を回復し、ターゲットとなる情報を効果的に除去する。
ViTケースの証明生成は約2時間で完了する。
- 参考スコア(独自算出の注目度): 8.024619500433174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning aims to remove the influence of specific data points from a trained model to satisfy privacy, copyright, and safety requirements. In real deployments, providers distribute a global model to many edge devices, where each client personalizes the model using private data. When a deletion request is issued, clients may ignore it or falsely claim compliance, and providers cannot check their parameters or data. This makes verification difficult, especially because personalized models must forget the targeted samples while preserving local utility, and verification must remain lightweight on edge devices. We introduce ZK APEX, a zero-shot personalized unlearning method that operates directly on the personalized model without retraining. ZK APEX combines sparse masking on the provider side with a small Group OBS compensation step on the client side, using a blockwise empirical Fisher matrix to create a curvature-aware update designed for low overhead. Paired with Halo2 zero-knowledge proofs, it enables the provider to verify that the correct unlearning transformation was applied without revealing any private data or personalized parameters. On Vision Transformer classification tasks, ZK APEX recovers nearly all personalization accuracy while effectively removing the targeted information. Applied to the OPT125M generative model trained on code data, it recovers around seventy percent of the original accuracy. Proof generation for the ViT case completes in about two hours, more than ten million times faster than retraining-based checks, with less than one gigabyte of memory use and proof sizes around four hundred megabytes. These results show the first practical framework for verifiable personalized unlearning on edge devices.
- Abstract(参考訳): 機械学習は、プライバシ、著作権、安全要件を満たすために、トレーニングされたモデルから特定のデータポイントの影響を取り除くことを目的としている。
実際のデプロイメントでは、プロバイダがグローバルモデルを多くのエッジデバイスに配布し、各クライアントがプライベートデータを使用してモデルをパーソナライズする。
削除要求が発行されると、クライアントはそれを無視するか、コンプライアンスを誤って主張し、プロバイダはパラメータやデータをチェックすることができない。
これは、特にパーソナライズされたモデルは、ローカルユーティリティを保持しながらターゲットのサンプルを忘れなければならず、検証はエッジデバイス上で軽量でなければならないため、検証が難しくなる。
ZK APEXは、パーソナライズされたモデルを直接操作するゼロショットパーソナライズされた未学習手法である。
ZK APEXは、プロバイダ側のスパースマスキングとクライアント側の小さなグループOBS補償ステップを組み合わせる。
Halo2ゼロ知識証明によって、プロバイダは、プライベートデータやパーソナライズされたパラメータを公開せずに、正しいアンラーニング変換が適用されたことを検証することができる。
Vision Transformerの分類タスクでは、ZK APEXはほとんどすべてのパーソナライズ精度を回復し、ターゲットとなる情報を効果的に除去する。
コードデータに基づいてトレーニングされたOPT125M生成モデルに適用すると、元の精度の約7パーセントを回復する。
ViTケースのプロフ生成は約2時間で完了し、トレーニングベースのチェックよりも1000万倍高速で、メモリ使用量は1ギガバイト未満で、証明サイズは約400メガバイトである。
これらの結果は、エッジデバイス上でパーソナライズされた未学習を検証するための最初の実践的フレームワークを示している。
関連論文リスト
- Verifiable Unlearning on Edge [6.761197166421685]
本稿では,ゼロ知識証明,特にzk-SNARKを用いた検証フレームワークを導入し,プライバシを損なうことなく,パーソナライズされたエッジデバイスモデル上でのデータの非学習を確認する。
我々は、効率的なzk-SNARK証明生成と互換性のある未学習操作を容易にするために、明示的に設計されたアルゴリズムを開発した。
本研究は,個人化による性能改善の最小限の劣化を伴う検証不可能な未学習を実証し,本フレームワークの有効性と有効性を確認した。
論文 参考訳(メタデータ) (2025-06-24T22:24:47Z) - Anonymity Unveiled: A Practical Framework for Auditing Data Use in Deep Learning Models [5.724311218570013]
深層学習(DL)の台頭により、学習データに対する需要が急増し、DLモデルの作成者がインターネットを旅して教材を訓練するインセンティブがもたらされた。
ユーザは、自分のデータが自分の同意なしにDLモデルのトレーニングに使用されるかどうかを、限定的にコントロールすることが多い。
この研究は、一般ユーザーがデータの不正使用を確実に検出できる実用的なデータ監査ツールである MembershipTracker を提案する。
論文 参考訳(メタデータ) (2024-09-10T07:31:56Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。