論文の概要: Langevin Unlearning: A New Perspective of Noisy Gradient Descent for Machine Unlearning
- arxiv url: http://arxiv.org/abs/2401.10371v5
- Date: Fri, 11 Oct 2024 22:13:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 15:01:42.626378
- Title: Langevin Unlearning: A New Perspective of Noisy Gradient Descent for Machine Unlearning
- Title(参考訳): Langevin Unlearning: 機械学習のためのノイズの多い勾配の新たな視点
- Authors: Eli Chien, Haoyu Wang, Ziang Chen, Pan Li,
- Abstract要約: プライバシは、スクラッチから再トレーニングするための統計的不明瞭さとして定義される。
勾配勾配に基づくアンラーニングフレームワークであるランゲヴィン・アンラーニングを提案する。
- 参考スコア(独自算出の注目度): 20.546589699647416
- License:
- Abstract: Machine unlearning has raised significant interest with the adoption of laws ensuring the ``right to be forgotten''. Researchers have provided a probabilistic notion of approximate unlearning under a similar definition of Differential Privacy (DP), where privacy is defined as statistical indistinguishability to retraining from scratch. We propose Langevin unlearning, an unlearning framework based on noisy gradient descent with privacy guarantees for approximate unlearning problems. Langevin unlearning unifies the DP learning process and the privacy-certified unlearning process with many algorithmic benefits. These include approximate certified unlearning for non-convex problems, complexity saving compared to retraining, sequential and batch unlearning for multiple unlearning requests.
- Abstract(参考訳): マシン・アンラーニングは『忘れられる権利』を保障する法律の採用で大きな関心を集めている。
研究者は、差分プライバシー(DP)という同様の定義の下で、近似的アンラーニングという確率論的概念を提供し、プライバシーはスクラッチから再トレーニングするための統計的不明瞭さとして定義されている。
本稿では,雑音勾配に基づくアンラーニングフレームワークであるランゲヴィン・アンラーニングを提案する。
Langevin unlearningは、DP学習プロセスとプライバシ認定未学習プロセスを、多くのアルゴリズム上の利点で統合する。
これには、非凸問題に対する近似されたアンラーニング、再トレーニングに対する複雑性の削減、複数のアンラーニング要求に対するシーケンシャルなアンラーニング、バッチなアンラーニングが含まれる。
関連論文リスト
- A Closer Look at Machine Unlearning for Large Language Models [46.245404272612795]
大型言語モデル(LLM)は機密または著作権のあるコンテンツを記憶し、プライバシーと法的懸念を高める。
LLMの機械学習におけるいくつかの問題について議論し、可能なアプローチについての洞察を提供する。
論文 参考訳(メタデータ) (2024-10-10T16:56:05Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Certified Machine Unlearning via Noisy Stochastic Gradient Descent [20.546589699647416]
機械学習は、訓練されたモデルに対する特定のデータポイントの効果を効率的に除去することを目的としている。
本研究では,雑音勾配勾配を非学習に活用し,その最初の近似的非学習保証を確立することを提案する。
論文 参考訳(メタデータ) (2024-03-25T18:43:58Z) - Tight Bounds for Machine Unlearning via Differential Privacy [0.7252027234425334]
私たちは、トレーニングされたモデルがトレーニングデータから多くのポイントを"解放"することを要求することで、いわゆる“忘れられる権利”を考えます。
DPベースの非学習アルゴリズムで実現可能な削除能力の厳密な境界を得る。
論文 参考訳(メタデータ) (2023-09-02T09:55:29Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Efficient Differentially Private Secure Aggregation for Federated
Learning via Hardness of Learning with Errors [1.4680035572775534]
フェデレーション機械学習はエッジコンピューティングを活用して、ネットワークユーザデータからモデルを開発する。
連邦学習におけるプライバシーは依然として大きな課題である。
マルチパーティ計算を用いた環境アグリゲーションの最近の進歩は、サードパーティの必要性を排除している。
そこで本研究では,新たな個人的かつ悪意のあるセキュアなアグリゲーションプロトコルを活用した,新たなフェデレーション学習プロトコルを提案する。
論文 参考訳(メタデータ) (2021-12-13T18:31:08Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。