論文の概要: Subspace based Federated Unlearning
- arxiv url: http://arxiv.org/abs/2302.12448v1
- Date: Fri, 24 Feb 2023 04:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 14:31:56.930593
- Title: Subspace based Federated Unlearning
- Title(参考訳): サブスペースに基づくフェデレーション・アンラーニング
- Authors: Guanghao Li, Li Shen, Yan Sun, Yue Hu, Han Hu, Dacheng Tao
- Abstract要約: フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 75.90552823500633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables multiple clients to train a machine learning
model collaboratively without exchanging their local data. Federated unlearning
is an inverse FL process that aims to remove a specified target client's
contribution in FL to satisfy the user's right to be forgotten. Most existing
federated unlearning algorithms require the server to store the history of the
parameter updates, which is not applicable in scenarios where the server
storage resource is constrained. In this paper, we propose a
simple-yet-effective subspace based federated unlearning method, dubbed SFU,
that lets the global model perform gradient ascent in the orthogonal space of
input gradient spaces formed by other clients to eliminate the target client's
contribution without requiring additional storage. Specifically, the server
first collects the gradients generated from the target client after performing
gradient ascent, and the input representation matrix is computed locally by the
remaining clients. We also design a differential privacy method to protect the
privacy of the representation matrix. Then the server merges those
representation matrices to get the input gradient subspace and updates the
global model in the orthogonal subspace of the input gradient subspace to
complete the forgetting task with minimal model performance degradation.
Experiments on MNIST, CIFAR10, and CIFAR100 show that SFU outperforms several
state-of-the-art (SOTA) federated unlearning algorithms by a large margin in
various settings.
- Abstract(参考訳): フェデレーション学習(fl)は、複数のクライアントがローカルデータを交換することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
フェデレート・アンラーニング(Federated Unlearning)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的とした逆FLプロセスである。
既存のfederated unlearningアルゴリズムの多くは、パラメータ更新の履歴をサーバに保存する必要があるが、サーバストレージリソースが制約されているシナリオでは適用できない。
本稿では,他のクライアントが生成する入力勾配空間の直交空間において,グローバルモデルが勾配上昇を行うことにより,追加のストレージを必要とせずにターゲットクライアントの寄与を排除できる,単純イエット効率のサブスペースベースフェデレーションアンラーニング手法sfuを提案する。
具体的には、まず、勾配上昇を行った後、ターゲットクライアントから生成された勾配を収集し、残りのクライアントによって、入力表現行列をローカルに計算する。
また、表現行列のプライバシーを保護するために差分プライバシー法を設計する。
次に、サーバはこれらの表現行列をマージして入力勾配部分空間を取得し、入力勾配部分空間の直交部分空間のグローバルモデルを更新し、最小限のモデル性能劣化を伴う忘れ処理を完了させる。
MNIST、CIFAR10、CIFAR100の実験では、SFUは様々な設定において、いくつかの最先端(SOTA)フェデレーションアンラーニングアルゴリズムより優れていた。
関連論文リスト
- Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - FedHP: Heterogeneous Federated Learning with Privacy-preserving [0.0]
フェデレーション学習は分散機械学習環境であり、パラメータを交換するだけで、クライアントがプライベートデータを共有せずにコラボレーティブなトレーニングを完了できるようにする。
本稿では,事前学習されたモデルをバックボーンとして,完全に接続されたレイヤをヘッドとして構成する,新しいフェデレーション学習手法を提案する。
勾配空間に基づくパラメータではなく、クラスの埋め込みベクトルを共有することで、クライアントはプライベートデータにより適応でき、サーバとクライアント間の通信においてより効率的になります。
論文 参考訳(メタデータ) (2023-01-27T13:32:17Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Learning Across Domains and Devices: Style-Driven Source-Free Domain
Adaptation in Clustered Federated Learning [32.098954477227046]
本稿では,クライアントのデータをラベル付けせず,サーバが事前学習のためにラベル付きデータセットにアクセスする新しいタスクを提案する。
実験の結果,我々のアルゴリズムは既存の手法よりも効率よく新しい課題に取り組むことができることがわかった。
論文 参考訳(メタデータ) (2022-10-05T15:23:52Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。