論文の概要: Protecting the Undeleted in Machine Unlearning
- arxiv url: http://arxiv.org/abs/2602.16697v1
- Date: Wed, 18 Feb 2026 18:44:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.688089
- Title: Protecting the Undeleted in Machine Unlearning
- Title(参考訳): 機械学習における未削除の保護
- Authors: Aloni Cohen, Refael Kohen, Kobbi Nissim, Uri Stemmer,
- Abstract要約: 本稿では,削除を伴わずに安全に計算できるタスクに対して,完全再トレーニングに固執するメカニズムにより,削除要求を発行するだけで,ほぼ全てのデータセットを再構築できることを示す。
我々は,他の点の削除による漏洩に対して,未削除データを特に保護する,新たなセキュリティ定義を提案する。
- 参考スコア(独自算出の注目度): 21.833252081084996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning aims to remove specific data points from a trained model, often striving to emulate "perfect retraining", i.e., producing the model that would have been obtained had the deleted data never been included. We demonstrate that this approach, and security definitions that enable it, carry significant privacy risks for the remaining (undeleted) data points. We present a reconstruction attack showing that for certain tasks, which can be computed securely without deletions, a mechanism adhering to perfect retraining allows an adversary controlling merely $ω(1)$ data points to reconstruct almost the entire dataset merely by issuing deletion requests. We survey existing definitions for machine unlearning, showing they are either susceptible to such attacks or too restrictive to support basic functionalities like exact summation. To address this problem, we propose a new security definition that specifically safeguards undeleted data against leakage caused by the deletion of other points. We show that our definition permits several essential functionalities, such as bulletin boards, summations, and statistical learning.
- Abstract(参考訳): 機械学習は、訓練されたモデルから特定のデータポイントを取り除くことを目的としており、しばしば「完全な再トレーニング」をエミュレートしようと試みている。
このアプローチと、それを可能にするセキュリティ定義が、残りの(予期せぬ)データポイントに対して重大なプライバシーリスクを負っていることを実証する。
本稿では,削除要求を発行するだけで,特定のタスクに対して完全な再トレーニングを施す機構により,データポイントを$ω(1)$だけ制御し,ほぼすべてのデータセットを再構築することができることを示す。
我々は、機械学習の既存の定義を調査し、それらがそのような攻撃の影響を受けやすいか、あるいは正確な総和のような基本的な機能をサポートするには制限的すぎることを示す。
この問題に対処するため,未削除データを他の点の削除による漏洩から保護する新たなセキュリティ定義を提案する。
我々の定義は,掲示板,要約,統計的学習など,いくつかの重要な機能を許容している。
関連論文リスト
- Reminiscence Attack on Residuals: Exploiting Approximate Machine Unlearning for Privacy [18.219835803238837]
非学習アルゴリズムは、未学習データのプライバシーを適切に保護できないことを示す。
本稿では,残余と会員のプライバシーの相関を増幅するReminiscence Attack (ReA)を提案する。
我々は,まず深層無学習データトレースを除去し,収束安定性を強制する二相近似学習フレームワークを開発した。
論文 参考訳(メタデータ) (2025-07-28T07:12:12Z) - UPCORE: Utility-Preserving Coreset Selection for Balanced Unlearning [57.081646768835704]
ユーザ仕様や法的フレームワークは、しばしば、大きな言語モデル(LLM)を含む、事前訓練されたモデルから削除される情報を必要とする。
これは、既に訓練済みのモデルからデータポイントのセットを削除または"偽造"する必要がある。
本研究では,非学習時の副次的損傷を軽減するための手法に依存しないデータ選択フレームワークUPCOREを提案する。
論文 参考訳(メタデータ) (2025-02-20T22:51:10Z) - FUNU: Boosting Machine Unlearning Efficiency by Filtering Unnecessary Unlearning [9.472692023087223]
本研究では不必要な未学習につながるデータポイントを同定するFUNUを提案する。
FUNUの理論的解析を行い,その有効性を検証するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2025-01-28T01:19:07Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Control, Confidentiality, and the Right to be Forgotten [7.568881327572535]
我々は新しい形式主義である削除・アズ・コントロールを提案する。
削除前にユーザーのデータを自由に使用でき、削除後に意味のある要件を課すことができる。
社会機能に応用し、様々な機械学習定義の統一的なビューを提供する。
論文 参考訳(メタデータ) (2022-10-14T14:54:52Z) - Deletion Inference, Reconstruction, and Compliance in Machine
(Un)Learning [21.404426803200796]
機械学習モデルに対するプライバシ攻撃は、そのようなモデルをトレーニングするために使用されるデータを特定することを目的としている。
多くの機械学習メソッドが最近、機械学習をサポートするように拡張されている。
論文 参考訳(メタデータ) (2022-02-07T19:02:58Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。