論文の概要: Machine Unlearning of Federated Clusters
- arxiv url: http://arxiv.org/abs/2210.16424v1
- Date: Fri, 28 Oct 2022 22:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 19:12:53.886185
- Title: Machine Unlearning of Federated Clusters
- Title(参考訳): フェデレーションクラスタの機械学習
- Authors: Chao Pan, Jin Sima, Saurav Prakash, Vishal Rana, Olgica Milenkovic
- Abstract要約: フェデレーションクラスタリング(Federated Clustering)は、パーソナライズされたレコメンデータや医療システムなど、多くの実践的なアプリケーションで発生する、教師なしの学習問題である。
この研究は、クライアントとサーバレベルでシンプルで、証明可能で、効率的なデータ削除をサポートする、プライバシ基準付きフェデレーションクラスタリングのための、初めての未学習メカニズムを提案する。
- 参考スコア(独自算出の注目度): 36.663892269484506
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated clustering is an unsupervised learning problem that arises in a
number of practical applications, including personalized recommender and
healthcare systems. With the adoption of recent laws ensuring the "right to be
forgotten", the problem of machine unlearning for federated clustering methods
has become of significant importance. This work proposes the first known
unlearning mechanism for federated clustering with privacy criteria that
support simple, provable, and efficient data removal at the client and server
level. The gist of our approach is to combine special initialization procedures
with quantization methods that allow for secure aggregation of estimated local
cluster counts at the server unit. As part of our platform, we introduce secure
compressed multiset aggregation (SCMA), which is of independent interest for
secure sparse model aggregation. In order to simultaneously facilitate low
communication complexity and secret sharing protocols, we integrate
Reed-Solomon encoding with special evaluation points into the new SCMA pipeline
and derive bounds on the time and communication complexity of different
components of the scheme. Compared to completely retraining K-means++ locally
and globally for each removal request, we obtain an average speed-up of roughly
84x across seven datasets, two of which contain biological and medical
information that is subject to frequent unlearning requests.
- Abstract(参考訳): フェデレーションクラスタリングは教師なしの学習問題であり、パーソナライズされたレコメンデータや医療システムなど、多くの実践的なアプリケーションで発生する。
近年の「忘れられる権利」を保障する法律が採用され、フェデレーションクラスタリング法における機械学習の未学習問題の重要性が高まっている。
この研究は、クライアントとサーバレベルでシンプルで、証明可能で効率的なデータ削除をサポートする、プライバシ基準付きフェデレーションクラスタリングのための、初めての未学習メカニズムを提案する。
このアプローチの要点は、特別な初期化手順と、サーバユニットで推定されるローカルクラスタ数をセキュアに集約できる量子化手法を組み合わせることです。
当社のプラットフォームの一部として、セキュアなスパースモデルアグリゲーションに独立した関心を持つ、セキュア圧縮マルチセットアグリゲーション(scma)を導入しました。
通信の複雑さと秘密共有プロトコルを同時に促進するために,新たなSCMAパイプラインに特別な評価点とリード・ソロモン符号化を組み込むことにより,スキームの異なるコンポーネントの時間と通信の複雑さを導出する。
削除要求毎にK-means++を完全にローカルかつグローバルに再トレーニングするのに比べ、約84倍のスピードアップが7つのデータセットで得られ、そのうち2つは、頻繁な未学習要求の対象となる生物学的および医学的情報を含んでいる。
関連論文リスト
- On Homomorphic Encryption Based Strategies for Class Imbalance in Federated Learning [4.322339935902437]
トレーニングデータセットにおけるクラス不均衡は、機械学習モデルにおけるバイアスと一般化の欠如につながる可能性がある。
フェデレート学習におけるグローバルクラス不均衡に関連する問題に対処するプライバシー保護フレームワークであるFLICKERを提案する。
論文 参考訳(メタデータ) (2024-10-28T16:35:40Z) - Face Clustering via Early Stopping and Edge Recall [6.847295047818357]
本稿では,非教師付き顔クラスタリングアルゴリズム FC-ES と教師付き顔クラスタリングアルゴリズム FC-ESER を提案する。
提案するFC-ESとFC-ESERは,従来の最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-24T01:53:02Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - TurboSVM-FL: Boosting Federated Learning through SVM Aggregation for
Lazy Clients [44.44776028287441]
TurboSVM-FLは、クライアント側で追加の計算負荷を発生させることのない、新しい統合集約戦略である。
我々は、FEMNIST、CelebA、シェークスピアを含む複数のデータセット上でTurboSVM-FLを評価する。
論文 参考訳(メタデータ) (2024-01-22T14:59:11Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - When Computing Power Network Meets Distributed Machine Learning: An
Efficient Federated Split Learning Framework [6.871107511111629]
CPN-FedSLはComputer Power Network (CPN)上のFederated Split Learning (FedSL)フレームワークである。
私たちは、基本的な設定と学習特性(例えば、レイテンシ、フロー、収束)をキャプチャする専用のモデルを構築します。
論文 参考訳(メタデータ) (2023-05-22T12:36:52Z) - Cali3F: Calibrated Fast Fair Federated Recommendation System [25.388324221293203]
提案手法は,推薦性能の公平性を改善するために,パーソナライズされた推薦システムトレーニングアルゴリズムを提案する。
次に、トレーニングプロセスの高速化のためにクラスタリングベースのアグリゲーション手法を採用する。
Cali3Fは、キャリブレーションされた高速かつ公正なフェデレーションレコメンデーションフレームワークである。
論文 参考訳(メタデータ) (2022-05-26T03:05:26Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。