論文の概要: BlindU: Blind Machine Unlearning without Revealing Erasing Data
- arxiv url: http://arxiv.org/abs/2601.07214v1
- Date: Mon, 12 Jan 2026 05:09:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.223915
- Title: BlindU: Blind Machine Unlearning without Revealing Erasing Data
- Title(参考訳): BlindU: データの消去を伴わないブラインドマシンのアンラーニング
- Authors: Weiqi Wang, Zhiyi Tian, Chenhan Zhang, Shui Yu,
- Abstract要約: 機械学習により、データ保持者は、トレーニングされたモデルから指定されたサンプルのコントリビューションを削除して、プライバシを保護することができる。
ほとんどのアンラーニング手法では、アンラーニング要求者は、アンラーニングの前提条件として、データをサーバにアップロードする必要がある。
圧縮表現を用いたアンラーニングを行うtextbfBlind Unlearning (BlindU) を提案する。
- 参考スコア(独自算出の注目度): 29.11439332064202
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine unlearning enables data holders to remove the contribution of their specified samples from trained models to protect their privacy. However, it is paradoxical that most unlearning methods require the unlearning requesters to firstly upload their data to the server as a prerequisite for unlearning. These methods are infeasible in many privacy-preserving scenarios where servers are prohibited from accessing users' data, such as federated learning (FL). In this paper, we explore how to implement unlearning under the condition of not uncovering the erasing data to the server. We propose \textbf{Blind Unlearning (BlindU)}, which carries out unlearning using compressed representations instead of original inputs. BlindU only involves the server and the unlearning user: the user locally generates privacy-preserving representations, and the server performs unlearning solely on these representations and their labels. For the FL model training, we employ the information bottleneck (IB) mechanism. The encoder of the IB-based FL model learns representations that distort maximum task-irrelevant information from inputs, allowing FL users to generate compressed representations locally. For effective unlearning using compressed representation, BlindU integrates two dedicated unlearning modules tailored explicitly for IB-based models and uses a multiple gradient descent algorithm to balance forgetting and utility retaining. While IB compression already provides protection for task-irrelevant information of inputs, to further enhance the privacy protection, we introduce a noise-free differential privacy (DP) masking method to deal with the raw erasing data before compressing. Theoretical analysis and extensive experimental results illustrate the superiority of BlindU in privacy protection and unlearning effectiveness compared with the best existing privacy-preserving unlearning benchmarks.
- Abstract(参考訳): 機械学習により、データ保持者は、トレーニングされたモデルから指定されたサンプルのコントリビューションを削除して、プライバシを保護することができる。
しかし、ほとんどのアンラーニング手法が、アンラーニングの前提条件として、未学習の要求者がまずデータをサーバにアップロードする必要があることは、パラドックス的である。
これらの方法は、フェデレートラーニング(FL)など、サーバがユーザのデータにアクセスすることを禁止されている多くのプライバシー保護シナリオにおいて、実現不可能である。
本稿では,サーバにデータを消去しない条件下でのアンラーニングの実施方法について検討する。
本稿では,従来の入力の代わりに圧縮表現を用いてアンラーニングを行う「textbf{Blind Unlearning (BlindU)}」を提案する。
ユーザはローカルにプライバシ保護表現を生成し、サーバはこれらの表現とラベルのみに基づいてアンラーニングを実行する。
FLモデルのトレーニングには、情報ボトルネック(IB)機構を用いる。
IBベースのFLモデルのエンコーダは、入力から最大タスク関連情報を歪曲する表現を学習し、FLユーザが局所的に圧縮された表現を生成する。
圧縮表現を用いた効果的なアンラーニングのために、BlindUは、IBベースのモデル用に明示的に調整された2つの専用アンラーニングモジュールを統合し、多重勾配降下アルゴリズムを使用して、忘れとユーティリティ保持のバランスをとる。
IB圧縮は、すでに入力のタスク非関連情報に対する保護を提供しており、プライバシー保護をさらに強化する一方で、圧縮前の生の消去データを扱うために、ノイズフリーの差分プライバシー(DP)マスキング手法を導入している。
理論的分析と広範な実験結果から、BlindUのプライバシー保護と未学習の有効性は、既存の未学習ベンチマークと比べて優れていることが示されている。
関連論文リスト
- Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - SecureCut: Federated Gradient Boosting Decision Trees with Efficient
Machine Unlearning [10.011146979811752]
VFL(Vertical Federated Learning)では、複数のパーティがモデルトレーニングにプライベート機能を提供している。
VFLでは、データ削除(textitmachine unlearning)は、プライバシの保証の下で、すべてのサンプルから特定の機能を削除する必要があることが多い。
我々は,スクラッチから再トレーニングを必要とせずに,テクティスタンス・アンラーニングとテクティファチュア・アンラーニングの両方を効果的に実現する,新しいグラディエント・ブースティング・決定木(GBDT)フレームワークであるmethnameを提案する。
論文 参考訳(メタデータ) (2023-11-22T05:38:53Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Exploring One-shot Semi-supervised Federated Learning with A Pre-trained Diffusion Model [40.83058938096914]
我々は,フェデレート拡散にインスパイアされた半教師付き協調学習法であるFedDISCを提案する。
まず、ラベル付きサーバデータのプロトタイプを抽出し、これらのプロトタイプを用いてクライアントデータの擬似ラベルを予測する。
各カテゴリについて、クラスタセントロイドとドメイン固有の表現を計算し、それらの分布のセマンティックおよびスタイリスティックな情報を表す。
これらの表現はサーバに送信され、事前にトレーニングされたデータを使用して、クライアントの分布に応じて合成データセットを生成し、その上でグローバルモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-06T14:22:33Z) - Unlearnable Clusters: Towards Label-agnostic Unlearnable Examples [128.25509832644025]
インターネット上の視覚的プライバシー漏洩に対して、未学習の例(UE)を開発することへの関心が高まっている。
UEは、目に見えないが学習不可能なノイズを付加したトレーニングサンプルであり、機械学習モデルの不正なトレーニングを防ぐことができる。
本稿では,無学習クラスタ (UC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-31T04:26:25Z) - Self-supervised On-device Federated Learning from Unlabeled Streams [15.94978097767473]
我々はSOFedと呼ばれるコアセット選択機能を備えた自己教師型オンデバイスフェデレーション学習フレームワークを提案し,コアセットを自動的に選択する。
視覚表現学習における提案手法の有効性と意義について実験を行った。
論文 参考訳(メタデータ) (2022-12-02T07:22:00Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - FedSEAL: Semi-Supervised Federated Learning with Self-Ensemble Learning
and Negative Learning [7.771967424619346]
Federated Learning (FL) は、分散化されたプライバシ保護機械学習(FL)フレームワークとして人気がある。
本稿では,この半教師付きフェデレート学習(SSFL)問題を解くために,FedSEALと呼ばれる新しいFLアルゴリズムを提案する。
提案アルゴリズムは,自己アンサンブル学習と相補的負学習を利用して,未ラベルデータに対するクライアントの教師なし学習の精度と効率を両立させる。
論文 参考訳(メタデータ) (2021-10-15T03:03:23Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。