論文の概要: Practical and Light-weight Secure Aggregation for Federated Submodel
Learning
- arxiv url: http://arxiv.org/abs/2111.01432v1
- Date: Tue, 2 Nov 2021 08:47:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 14:37:01.526719
- Title: Practical and Light-weight Secure Aggregation for Federated Submodel
Learning
- Title(参考訳): フェデレーションサブモデル学習のための実用的・軽量セキュアアグリゲーション
- Authors: Jamie Cui, Cen Chen, Tiandi Ye, Li Wang
- Abstract要約: 本稿では,実用的で軽量なフェデレート・サブモデル学習手法を提案する。
我々は分散ポイント関数(DPF)とカッコウハッシュを用いてスキームを構築する。
提案プロトコルは,重量が$leq 215$である場合,1分以内で終了できる。
- 参考スコア(独自算出の注目度): 9.996335306548387
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, Niu, et. al. introduced a new variant of Federated Learning (FL),
called Federated Submodel Learning (FSL). Different from traditional FL, each
client locally trains the submodel (e.g., retrieved from the servers) based on
its private data and uploads a submodel at its choice to the servers. Then all
clients aggregate all their submodels and finish the iteration. Inevitably, FSL
introduces two privacy-preserving computation tasks, i.e., Private Submodel
Retrieval (PSR) and Secure Submodel Aggregation (SSA). Existing work fails to
provide a loss-less scheme, or has impractical efficiency. In this work, we
leverage Distributed Point Function (DPF) and cuckoo hashing to construct a
practical and light-weight secure FSL scheme in the two-server setting. More
specifically, we propose two basic protocols with few optimisation techniques,
which ensures our protocol practicality on specific real-world FSL tasks. Our
experiments show that our proposed protocols can finish in less than 1 minute
when weight sizes $\leq 2^{15}$, we also demonstrate protocol efficiency by
comparing with existing work and by handling a real-world FSL task.
- Abstract(参考訳): 最近、ニウなど。
al.はfederated submodel learning(fsl)と呼ばれる新しい種類のフェデレーション学習(fl)を導入した。
従来のFLとは異なり、各クライアントはプライベートデータに基づいてサブモデルをローカルにトレーニングし(例えばサーバから取得)、その選択したサブモデルをサーバにアップロードする。
その後、すべてのクライアントがサブモデルをすべて集約し、イテレーションを完了します。
必然的に、FSLはプライバシを保存する2つの計算タスク、すなわちPrivate Submodel Retrieval(PSR)とSecure Submodel Aggregation(SSA)を導入している。
既存の作業は損失のないスキームの提供に失敗し、あるいは非現実的な効率性を持つ。
本研究では分散ポイント関数(DPF)とcuckooハッシュを利用して,2サーバ設定で実用的で軽量なセキュアFSLスキームを構築する。
具体的には,特定の実世界のFSLタスクにおけるプロトコルの実用性を保証するため,最適化手法の少ない2つの基本プロトコルを提案する。
提案したプロトコルは,重量が$\leq 2^{15}$のとき1分以内で終了できることを示し,既存の作業との比較や実世界のFSLタスクの処理によるプロトコル効率の実証を行った。
関連論文リスト
- Instance-based Max-margin for Practical Few-shot Recognition [32.26577845735846]
IbM2は、数ショット学習のための新しいインスタンスベースのマックスマージン法である。
本稿では,IbM2がベースライン法に比べてほぼ常に改善されていることを示す。
論文 参考訳(メタデータ) (2023-05-27T04:55:13Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - FSL: Federated Supermask Learning [22.011741503471757]
フェデレートラーニング(FL)は、複数のクライアントがプライベートトレーニングデータを共有せずに、共通の機械学習モデルを協調的にトレーニングすることを可能にする。
FLは、攻撃に対する堅牢性と通信効率の2つの大きなハードルに直面している。
我々は,フェデレートされたスーパーマスク学習が設計によって堅牢であり,コミュニケーション効率が著しく高いことを理論的,実証的に示す。
論文 参考訳(メタデータ) (2021-10-08T19:28:34Z) - TAFSSL: Task-Adaptive Feature Sub-Space Learning for few-shot
classification [50.358839666165764]
本稿では,タスク適応機能サブスペース学習(TAFSSL)により,Few-Shot Learningシナリオの性能を大幅に向上させることができることを示す。
具体的には、挑戦的な miniImageNet と tieredImageNet ベンチマークにおいて、TAFSSL はトランスダクティブおよび半教師付き FSL 設定の両方で現在の状態を改善することができることを示しています。
論文 参考訳(メタデータ) (2020-03-14T16:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。