論文の概要: Verifiable Unlearning on Edge
- arxiv url: http://arxiv.org/abs/2506.20037v1
- Date: Tue, 24 Jun 2025 22:24:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.546538
- Title: Verifiable Unlearning on Edge
- Title(参考訳): エッジ上の検証可能なアンラーニング
- Authors: Mohammad M Maheri, Alex Davidson, Hamed Haddadi,
- Abstract要約: 本稿では,ゼロ知識証明,特にzk-SNARKを用いた検証フレームワークを導入し,プライバシを損なうことなく,パーソナライズされたエッジデバイスモデル上でのデータの非学習を確認する。
我々は、効率的なzk-SNARK証明生成と互換性のある未学習操作を容易にするために、明示的に設計されたアルゴリズムを開発した。
本研究は,個人化による性能改善の最小限の劣化を伴う検証不可能な未学習を実証し,本フレームワークの有効性と有効性を確認した。
- 参考スコア(独自算出の注目度): 6.761197166421685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning providers commonly distribute global models to edge devices, which subsequently personalize these models using local data. However, issues such as copyright infringements, biases, or regulatory requirements may require the verifiable removal of certain data samples across all edge devices. Ensuring that edge devices correctly execute such unlearning operations is critical to maintaining integrity. In this work, we introduce a verification framework leveraging zero-knowledge proofs, specifically zk-SNARKs, to confirm data unlearning on personalized edge-device models without compromising privacy. We have developed algorithms explicitly designed to facilitate unlearning operations that are compatible with efficient zk-SNARK proof generation, ensuring minimal computational and memory overhead suitable for constrained edge environments. Furthermore, our approach carefully preserves personalized enhancements on edge devices, maintaining model performance post-unlearning. Our results affirm the practicality and effectiveness of this verification framework, demonstrating verifiable unlearning with minimal degradation in personalization-induced performance improvements. Our methodology ensures verifiable, privacy-preserving, and effective machine unlearning across edge devices.
- Abstract(参考訳): マシンラーニングプロバイダは通常、グローバルモデルをエッジデバイスに分散し、その後、ローカルデータを使用してこれらのモデルをパーソナライズする。
しかし、著作権侵害、バイアス、規制要件などの問題は、すべてのエッジデバイスにまたがる特定のデータサンプルを確実に削除する必要があるかもしれない。
エッジデバイスがそのような未学習操作を正しく実行することを保証することは、整合性を維持するために重要である。
本研究では,ゼロ知識証明,特にzk-SNARKを用いた検証フレームワークを導入し,プライバシを損なうことなく,パーソナライズされたエッジデバイスモデル上でのデータの非学習を確認する。
我々は、効率的なzk-SNARK証明生成と互換性のある未学習操作を容易にし、制約のあるエッジ環境に適した最小限の計算およびメモリオーバーヘッドを確保するために、明示的に設計されたアルゴリズムを開発した。
さらに,エッジデバイス上でのパーソナライズされた拡張を慎重に保存し,学習後のモデル性能を維持する。
本研究は,個人化による性能改善の最小限の劣化を伴う検証不可能な未学習を実証し,本フレームワークの有効性と有効性を確認した。
我々の手法は、エッジデバイスをまたいだ検証、プライバシー保護、効果的な機械学習を保証する。
関連論文リスト
- Privacy Preservation through Practical Machine Unlearning [0.0]
本稿では,SISAフレームワークを用いたNative RetrainingやExact Unlearningなどの手法について検討する。
部分的にラベル付けされたデータセットがもたらす課題に対処するために、未学習の原則をPositive Unlabeled (PU) Learningに統合する可能性を探る。
論文 参考訳(メタデータ) (2025-02-15T02:25:27Z) - Privacy-Preserving Model and Preprocessing Verification for Machine Learning [9.4033740844828]
本稿では、機密データに基づいてトレーニングされたモデルに着目し、機械学習モデルのプライバシ保護検証のためのフレームワークを提案する。
バイナリ分類は、適切な前処理ステップを適用してターゲットモデルが正しくトレーニングされたかどうかを検証し、特定の前処理エラーを特定するマルチクラス分類という2つの重要なタスクに対処する。
その結果、検証精度はデータセットやノイズレベルによって異なるが、このフレームワークは、事前処理エラー、強力なプライバシ保証、機密データの保護のための実践的適用性を効果的に検出する。
論文 参考訳(メタデータ) (2025-01-14T16:21:54Z) - Efficient Detection Framework Adaptation for Edge Computing: A Plug-and-play Neural Network Toolbox Enabling Edge Deployment [59.61554561979589]
エッジコンピューティングは、時間に敏感なシナリオでディープラーニングベースのオブジェクト検出をデプロイするための重要なパラダイムとして登場した。
既存のエッジ検出手法では、軽量モデルによる検出精度のバランスの難しさ、適応性の制限、現実の検証の不十分といった課題に直面している。
本稿では,汎用的なプラグイン・アンド・プレイコンポーネントを用いてエッジ環境にオブジェクト検出モデルを適用するエッジ検出ツールボックス(ED-TOOLBOX)を提案する。
論文 参考訳(メタデータ) (2024-12-24T07:28:10Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Self-consistent Validation for Machine Learning Electronic Structure [81.54661501506185]
機械学習と自己整合フィールド法を統合して,検証コストの低減と解釈可能性の両立を実現する。
これにより、積極的学習によるモデルの能力の探索が可能となり、実際の研究への統合への信頼がもたらされる。
論文 参考訳(メタデータ) (2024-02-15T18:41:35Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。