論文の概要: Secure Bilevel Asynchronous Vertical Federated Learning with Backward
Updating
- arxiv url: http://arxiv.org/abs/2103.00958v1
- Date: Mon, 1 Mar 2021 12:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:18:38.867998
- Title: Secure Bilevel Asynchronous Vertical Federated Learning with Backward
Updating
- Title(参考訳): 後方更新によるセキュアな双方向非同期垂直フェデレーション学習
- Authors: Qingsong Zhang, Bin Gu, Cheng Deng and Heng Huang
- Abstract要約: 垂直拡張学習(VFL)は、多人数協調モデリングの要求とプライバシー漏洩の懸念により、注目を集めている。
我々は,vf$b2$を含む3つの新しいアルゴリズムを提案する新しいbftextlevel parallel architecture (vf$bfb2$)を提案する。
- 参考スコア(独自算出の注目度): 159.48259714642447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning (VFL) attracts increasing attention due to the
emerging demands of multi-party collaborative modeling and concerns of privacy
leakage. In the real VFL applications, usually only one or partial parties hold
labels, which makes it challenging for all parties to collaboratively learn the
model without privacy leakage. Meanwhile, most existing VFL algorithms are
trapped in the synchronous computations, which leads to inefficiency in their
real-world applications. To address these challenging problems, we propose a
novel {\bf VF}L framework integrated with new {\bf b}ackward updating mechanism
and {\bf b}ilevel asynchronous parallel architecture (VF{${\textbf{B}}^2$}),
under which three new algorithms, including VF{${\textbf{B}}^2$}-SGD, -SVRG,
and -SAGA, are proposed. We derive the theoretical results of the convergence
rates of these three algorithms under both strongly convex and nonconvex
conditions. We also prove the security of VF{${\textbf{B}}^2$} under
semi-honest threat models. Extensive experiments on benchmark datasets
demonstrate that our algorithms are efficient, scalable and lossless.
- Abstract(参考訳): 垂直連合学習(VFL)は、多人数協調モデリングの新たな需要とプライバシー漏洩の懸念から注目を集めている。
実際のVFLアプリケーションでは、通常は1つまたは一部のパーティのみがラベルを保持するため、すべてのパーティがプライバシの漏洩なしにモデルを共同で学習することは困難である。
一方、既存のほとんどのVFLアルゴリズムは同期計算に閉じ込められており、実際のアプリケーションでは効率が悪い。
これらの課題を解決するために、新しい {\bf b}ackward 更新機構と、VF{${\textbf{B}}^2$}-SGD, -SVRG, -SAGA を含む3つの新しいアルゴリズムが提案される、新しい {\bf b}ackward 更新機構および {\bf b}ilevel 非同期並列アーキテクチャ (VF{${\textbf{B}}^2$}) と統合された新しい {\bf VF}L フレームワークを提案する。
強凸条件と非凸条件の両方下でのこれら3つのアルゴリズムの収束率の理論結果を導出する。
私達はまた半正直な脅威モデルの下でVF{${\textbf{B}}^2$}のセキュリティを証明します。
ベンチマークデータセットに関する広範な実験は、アルゴリズムが効率的でスケーラブルでロスレスであることを示しています。
関連論文リスト
- Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Every Parameter Matters: Ensuring the Convergence of Federated Learning
with Dynamic Heterogeneous Models Reduction [22.567754688492414]
クロスデバイス・フェデレーション・ラーニング(FL)は、ユニークなコントリビューションを行う可能性のあるローエンドのクライアントが、リソースのボトルネックのため、大規模なモデルのトレーニングから除外されるという、大きな課題に直面します。
近年,グローバルモデルから縮小サイズのモデルを抽出し,それに応じてローカルクライアントに適用することによって,モデル不均一FLに焦点を当てている。
本稿では,オンラインモデル抽出を用いた不均一FLアルゴリズムの一元化フレームワークを提案し,一般収束解析を初めて提供する。
論文 参考訳(メタデータ) (2023-10-12T19:07:58Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Local Stochastic Bilevel Optimization with Momentum-Based Variance
Reduction [104.41634756395545]
具体的には、まず、決定論的勾配に基づくアルゴリズムであるFedBiOを提案する。
FedBiOの複雑性は$O(epsilon-1.5)$である。
本アルゴリズムは数値実験において,他のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-03T16:40:22Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - On the Convergence of Heterogeneous Federated Learning with Arbitrary
Adaptive Online Model Pruning [15.300983585090794]
任意適応型オンラインモデルプルーニングを用いた異種FLアルゴリズムの一元化フレームワークを提案する。
特に、ある十分な条件下では、これらのアルゴリズムは一般的なスムーズなコスト関数に対して標準FLの定常点に収束する。
コンバージェンスに影響を与える2つの要因として,プルーニング誘導雑音と最小カバレッジ指数を照らす。
論文 参考訳(メタデータ) (2022-01-27T20:43:38Z) - EFMVFL: An Efficient and Flexible Multi-party Vertical Federated
Learning without a Third Party [7.873139977724476]
フェデレートラーニング(Federated Learning)は、複数の参加者が、ローカルデータを開示することなく、共同でモデリングを行うことを可能にする。
EFMVFLと呼ばれるサードパーティを使わずに新しいVFLフレームワークを提案する。
私たちのフレームワークはセキュアで、より効率的で、複数の参加者に拡張が容易です。
論文 参考訳(メタデータ) (2022-01-17T07:06:21Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z) - Stragglers Are Not Disaster: A Hybrid Federated Learning Algorithm with
Delayed Gradients [21.63719641718363]
フェデレーション・ラーニング(federated learning, fl)は、多数の分散コンピューティングデバイスで合同モデルをトレーニングする、新しい機械学習フレームワークである。
本稿では,効率と有効性における学習バランスを実現するための新しいflアルゴリズムであるhybrid federated learning(hfl)を提案する。
論文 参考訳(メタデータ) (2021-02-12T02:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。