論文の概要: Fully Decentralized Certified Unlearning
- arxiv url: http://arxiv.org/abs/2512.08443v1
- Date: Tue, 09 Dec 2025 10:15:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.913443
- Title: Fully Decentralized Certified Unlearning
- Title(参考訳): 完全分散認定アンラーニング
- Authors: Hithem Lamri, Michail Maniatakos,
- Abstract要約: 機械学習(MUNIST)は、プライバシ要求やデータ中毒に応答して、トレーニングされたモデルから指定されたデータの影響を取り除くことを目指している。
認定されていない未学習は(差分プライバシー(DP)の保証を通じて)中央集権的かつ連邦化された環境で分析されているが、分散された設定 -- ピアは調整者が過小評価されることなくコミュニケーションしている。
- 参考スコア(独自算出の注目度): 4.944495309580904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning (MU) seeks to remove the influence of specified data from a trained model in response to privacy requests or data poisoning. While certified unlearning has been analyzed in centralized and server-orchestrated federated settings (via guarantees analogous to differential privacy, DP), the decentralized setting -- where peers communicate without a coordinator remains underexplored. We study certified unlearning in decentralized networks with fixed topologies and propose RR-DU, a random-walk procedure that performs one projected gradient ascent step on the forget set at the unlearning client and a geometrically distributed number of projected descent steps on the retained data elsewhere, combined with subsampled Gaussian noise and projection onto a trust region around the original model. We provide (i) convergence guarantees in the convex case and stationarity guarantees in the nonconvex case, (ii) $(\varepsilon,δ)$ network-unlearning certificates on client views via subsampled Gaussian $Rényi$ DP (RDP) with segment-level subsampling, and (iii) deletion-capacity bounds that scale with the forget-to-local data ratio and quantify the effect of decentralization (network mixing and randomized subsampling) on the privacy--utility trade-off. Empirically, on image benchmarks (MNIST, CIFAR-10), RR-DU matches a given $(\varepsilon,δ)$ while achieving higher test accuracy than decentralized DP baselines and reducing forget accuracy to random guessing ($\approx 10\%$).
- Abstract(参考訳): 機械学習(MU)は、プライバシ要求やデータ中毒に応答して、トレーニングされたモデルから指定されたデータの影響を取り除くことを目指している。
認定されていない未学習は(差分プライバシー(DP)と類似することを保証して)中央集権的およびサーバが設定したフェデレーション設定で分析されているが、非集中的な設定 -- コーディネータなしでのコミュニケーションが過小評価されている。
固定トポロジを持つ分散ネットワークにおける証明されたアンラーニングについて検討し、未学習クライアントにおけるリクットセット上の1つのプロジェクト勾配上昇ステップと、他のデータに対する幾何学的に分散されたプロジェクト降下ステップと、原モデルの周囲の信頼領域へのサブサンプリングされたガウスノイズとプロジェクションとを組み合わせたランダムウォーク手順であるRR-DUを提案する。
提供
一 凸の場合の収束保証及び非凸の場合の定常保証
(ii) $(\varepsilon,δ)$ network-unlearning certificates on client views via subsampled Gaussian $Rényi$ DP with segment-level subsampling, and
三 削除能力は、忘れからローカルまでのデータ比率で拡大し、プライバシとユーティリティのトレードオフに対する分散化(ネットワークミキシングとランダム化サブサンプリング)の効果を定量化する。
画像ベンチマーク(MNIST, CIFAR-10)では、RR-DUが与えられた$(\varepsilon,δ)$と一致し、分散DPベースラインよりも高いテスト精度を実現し、ランダムな推測(\approx 10\%$)に忘れの精度を低下させる。
関連論文リスト
- Differentially Private Decentralized Dataset Synthesis Through Randomized Mixing with Correlated Noise [0.0]
分散データ設定における差分プライベートな合成データ生成について検討する。
我々は最近提案された微分プライベートなクラス中心データアグリゲーションに基づいて構築する。
論文 参考訳(メタデータ) (2025-09-12T16:18:35Z) - Decentralized Differentially Private Power Method [4.58112062523768]
ネットワーク化されたマルチエージェント設定において主成分分析(PCA)を行うための分散分散微分プライベート・パワー・メソッド(D-DP-PM)を提案する。
本手法は,ネットワーク全体の固有ベクトルを協調的に推定しながら,$(epsilon,delta)$-Differential Privacy (DP)を保証する。
実世界のデータセット実験により、D-DP-PMは、単純で局所的なDPアプローチに比べて、優れたプライバシーとユーティリティのトレードオフを実現することが示された。
論文 参考訳(メタデータ) (2025-07-30T17:15:50Z) - Differential Privacy Analysis of Decentralized Gossip Averaging under Varying Threat Models [6.790905400046194]
本稿では,ノードレベルの付加雑音を用いた分散化ゴシップ平均化アルゴリズムの新たなプライバシー解析法を提案する。
私たちの主な貢献は、これらのシナリオにおけるプライバシー漏洩を正確に特徴付ける新しい分析フレームワークです。
従来の手法に比べてDP境界が優れていることを示す数値計算結果を用いて,本分析を検証した。
論文 参考訳(メタデータ) (2025-05-26T13:31:43Z) - Secure Aggregation Meets Sparsification in Decentralized Learning [1.7010199949406575]
本稿では,分散学習(DL)のための新しいセキュアアグリゲーションプロトコルであるCESARを紹介する。
CESARは、正直だが正反対の敵を確実に擁護し、両者の共謀に対処するために形式的に適応することができる。
論文 参考訳(メタデータ) (2024-05-13T12:52:58Z) - Unsupervised Deep Probabilistic Approach for Partial Point Cloud
Registration [74.53755415380171]
ディープポイントクラウド登録手法は、部分的に重複し、ラベル付きデータに依存するという課題に直面している。
部分的な重なりを持つ点雲に対する教師なしの深い確率的登録フレームワークであるUDPRegを提案する。
UDPRegは3DMatch/3DLoMatchとModelNet/ModelLoNetベンチマークの競合性能を実現しています。
論文 参考訳(メタデータ) (2023-03-23T14:18:06Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z) - A(DP)$^2$SGD: Asynchronous Decentralized Parallel Stochastic Gradient
Descent with Differential Privacy [15.038697541988746]
一般的な分散学習戦略はフェデレーション学習であり、グローバルモデルを格納する中央サーバと、対応するデータでモデルパラメータを更新するローカルコンピューティングノードのセットがある。
本稿では,ADPSGDの通信効率を保ち,悪意のある参加者による推論を防止する,非同期分散並列SGDフレームワークの差分プライベート版A(DP)$2$SGDを提案する。
論文 参考訳(メタデータ) (2020-08-21T00:56:22Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。