論文の概要: Machine Unlearning of Federated Clusters
- arxiv url: http://arxiv.org/abs/2210.16424v2
- Date: Sat, 1 Jul 2023 03:53:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 15:31:17.560423
- Title: Machine Unlearning of Federated Clusters
- Title(参考訳): フェデレーションクラスタの機械学習
- Authors: Chao Pan, Jin Sima, Saurav Prakash, Vishal Rana, Olgica Milenkovic
- Abstract要約: フェデレーションクラスタリング(Federated Clustering)は、パーソナライズされたレコメンデータや医療システムなど、多くの実践的なアプリケーションで発生する、教師なしの学習問題である。
FCにおける機械学習の課題を初めて紹介する。
カスタマイズされたセキュアなFCフレームワークのための効率的なアンラーニング機構を提案する。
- 参考スコア(独自算出の注目度): 36.663892269484506
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated clustering (FC) is an unsupervised learning problem that arises in
a number of practical applications, including personalized recommender and
healthcare systems. With the adoption of recent laws ensuring the "right to be
forgotten", the problem of machine unlearning for FC methods has become of
significant importance. We introduce, for the first time, the problem of
machine unlearning for FC, and propose an efficient unlearning mechanism for a
customized secure FC framework. Our FC framework utilizes special
initialization procedures that we show are well-suited for unlearning. To
protect client data privacy, we develop the secure compressed multiset
aggregation (SCMA) framework that addresses sparse secure federated learning
(FL) problems encountered during clustering as well as more general problems.
To simultaneously facilitate low communication complexity and secret sharing
protocols, we integrate Reed-Solomon encoding with special evaluation points
into our SCMA pipeline, and prove that the client communication cost is
logarithmic in the vector dimension. Additionally, to demonstrate the benefits
of our unlearning mechanism over complete retraining, we provide a theoretical
analysis for the unlearning performance of our approach. Simulation results
show that the new FC framework exhibits superior clustering performance
compared to previously reported FC baselines when the cluster sizes are highly
imbalanced. Compared to completely retraining K-means++ locally and globally
for each removal request, our unlearning procedure offers an average speed-up
of roughly 84x across seven datasets. Our implementation for the proposed
method is available at https://github.com/thupchnsky/mufc.
- Abstract(参考訳): フェデレートクラスタリング(FC)は、パーソナライズされたレコメンデータや医療システムなど、多くの実践的なアプリケーションで発生する教師なしの学習問題である。
近年の「忘れられる権利」を保障する法律の採用により、FC法における機械学習の課題が重要になっている。
本稿では,FCにおける機械学習の課題を初めて紹介し,カスタマイズされたセキュアなFCフレームワークのための効率的な学習機構を提案する。
我々のFCフレームワークは、未学習に適した特別な初期化手順を利用する。
クライアントデータプライバシを保護するために,より一般的な問題だけでなく,クラスタリング中に発生するsparse secure federated learning(fl)問題に対処するセキュア圧縮マルチセットアグリゲーション(scma)フレームワークを開発した。
低通信複雑性と秘密共有プロトコルを同時に実現するため、SCMAパイプラインに特殊評価点とリードソロモン符号化を統合し、クライアント通信コストがベクトル次元で対数であることを証明する。
さらに, 完全再学習よりも学習の非学習機構の利点を実証するため, 提案手法の非学習性能に関する理論的解析を行った。
シミュレーションの結果,新しいFCフレームワークは,クラスタサイズが極めて不均衡な場合に,これまでに報告したFCベースラインよりも優れたクラスタリング性能を示すことがわかった。
削除要求毎にK-means++を完全にローカルかつグローバルに再トレーニングするのに比べ、我々の未学習手順は7つのデータセットで平均84倍のスピードアップを提供する。
提案手法の実装はhttps://github.com/thupchnsky/mufcで利用可能である。
関連論文リスト
- On Homomorphic Encryption Based Strategies for Class Imbalance in Federated Learning [4.322339935902437]
トレーニングデータセットにおけるクラス不均衡は、機械学習モデルにおけるバイアスと一般化の欠如につながる可能性がある。
フェデレート学習におけるグローバルクラス不均衡に関連する問題に対処するプライバシー保護フレームワークであるFLICKERを提案する。
論文 参考訳(メタデータ) (2024-10-28T16:35:40Z) - Face Clustering via Early Stopping and Edge Recall [6.847295047818357]
本稿では,非教師付き顔クラスタリングアルゴリズム FC-ES と教師付き顔クラスタリングアルゴリズム FC-ESER を提案する。
提案するFC-ESとFC-ESERは,従来の最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-24T01:53:02Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - TurboSVM-FL: Boosting Federated Learning through SVM Aggregation for
Lazy Clients [44.44776028287441]
TurboSVM-FLは、クライアント側で追加の計算負荷を発生させることのない、新しい統合集約戦略である。
我々は、FEMNIST、CelebA、シェークスピアを含む複数のデータセット上でTurboSVM-FLを評価する。
論文 参考訳(メタデータ) (2024-01-22T14:59:11Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - When Computing Power Network Meets Distributed Machine Learning: An
Efficient Federated Split Learning Framework [6.871107511111629]
CPN-FedSLはComputer Power Network (CPN)上のFederated Split Learning (FedSL)フレームワークである。
私たちは、基本的な設定と学習特性(例えば、レイテンシ、フロー、収束)をキャプチャする専用のモデルを構築します。
論文 参考訳(メタデータ) (2023-05-22T12:36:52Z) - Cali3F: Calibrated Fast Fair Federated Recommendation System [25.388324221293203]
提案手法は,推薦性能の公平性を改善するために,パーソナライズされた推薦システムトレーニングアルゴリズムを提案する。
次に、トレーニングプロセスの高速化のためにクラスタリングベースのアグリゲーション手法を採用する。
Cali3Fは、キャリブレーションされた高速かつ公正なフェデレーションレコメンデーションフレームワークである。
論文 参考訳(メタデータ) (2022-05-26T03:05:26Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。