論文の概要: Leveraging Per-Instance Privacy for Machine Unlearning
- arxiv url: http://arxiv.org/abs/2505.18786v1
- Date: Sat, 24 May 2025 16:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.662196
- Title: Leveraging Per-Instance Privacy for Machine Unlearning
- Title(参考訳): マシンラーニングのためのインスタンス単位のプライバシの活用
- Authors: Nazanin Mohammadi Sepahvand, Anvith Thudi, Berivan Isik, Ashmita Bhattacharyya, Nicolas Papernot, Eleni Triantafillou, Daniel M. Roy, Gintare Karolina Dziugaite,
- Abstract要約: 我々は、微調整による未学習の難しさを定量化するための原則的、インスタンスごとのアプローチを提案する。
我々の発見は、個々のデータポイントのユニークな性質に合わせて、より効率的で適応的な未学習戦略の基礎を提供する。
- 参考スコア(独自算出の注目度): 43.55855852029299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a principled, per-instance approach to quantifying the difficulty of unlearning via fine-tuning. We begin by sharpening an analysis of noisy gradient descent for unlearning (Chien et al., 2024), obtaining a better utility-unlearning tradeoff by replacing worst-case privacy loss bounds with per-instance privacy losses (Thudi et al., 2024), each of which bounds the (Renyi) divergence to retraining without an individual data point. To demonstrate the practical applicability of our theory, we present empirical results showing that our theoretical predictions are born out both for Stochastic Gradient Langevin Dynamics (SGLD) as well as for standard fine-tuning without explicit noise. We further demonstrate that per-instance privacy losses correlate well with several existing data difficulty metrics, while also identifying harder groups of data points, and introduce novel evaluation methods based on loss barriers. All together, our findings provide a foundation for more efficient and adaptive unlearning strategies tailored to the unique properties of individual data points.
- Abstract(参考訳): 我々は、微調整による未学習の難易度を定量化するための原則的、インスタンスごとのアプローチを提案する。
まず,未学習者に対するノイズの勾配降下の分析(Chien et al ,2024)から始め,最低ケースのプライバシ損失をインスタンスごとのプライバシ損失に置き換えることにより,より良いユーティリティ・アンラーニングトレードオフを得る(Thudi et al ,2024)。
本研究では,SGLD(Stochastic Gradient Langevin Dynamics)とSGLD(Stochastic Gradient Langevin Dynamics)の双方で理論予測が生まれていることを示す実験結果を示す。
さらに、既存のデータ難易度指標と相関し、データポイントの厳密なグループを特定し、損失障壁に基づく新しい評価手法を導入することを実証した。
全体として、我々の発見は、個々のデータポイントのユニークな性質に合わせて、より効率的で適応的な未学習戦略の基礎を提供する。
関連論文リスト
- The Utility and Complexity of in- and out-of-Distribution Machine Unlearning [16.879887267565742]
我々は、近似アンラーニングの基本的な有用性、時間、空間複雑さのトレードオフを分析する。
実用性を損なうことなく、学習時間の複雑さを確実に改善する、頑健でノイズの多い勾配降下変種を提案する。
論文 参考訳(メタデータ) (2024-12-12T09:54:38Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - Learning to be adversarially robust and differentially private [42.7930886063265]
我々は、頑健で微分プライベートな最適化から生じる学習の難しさについて研究する。
プライベート最適化によって導入されたデータ次元依存用語は、堅牢なモデルを学ぶのが困難である。
差分プライバシーにおける敵の一般化とクリッピング規範の大きさは、損失景観の曲率を増大させ、性能の低下を示唆する。
論文 参考訳(メタデータ) (2022-01-06T22:33:06Z) - On Covariate Shift of Latent Confounders in Imitation and Reinforcement
Learning [69.48387059607387]
模擬・強化学習において,未観測の共同設立者と専門家データを併用することの問題点を考察する。
我々は、外部報酬を伴わずに、確立した専門家データから学ぶことの限界を分析する。
我々は,支援医療とレコメンデーションシステムシミュレーションの課題に挑戦する上で,我々の主張を実証的に検証する。
論文 参考訳(メタデータ) (2021-10-13T07:31:31Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。